Introducción a interconexión de redes y sub-Redes.
Interconexión de redes.
Sin que lo notemos, nos sumergimos a diario en una vasta red de conexiones que enlaza nuestro mundo digital de manera sorprendente. Imagina un tejido invisible que conecta millones de dispositivos, permitiéndoles comunicarse y compartir información en un abrir y cerrar de ojos. Eso es la interconexión de redes.
Desde las redes móviles que nos mantienen conectados mientras nos desplazamos, hasta las redes inalámbricas que nos permiten disfrutar de la libertad de una conexión de cables. La interconexión de redes juega un papel esencial en nuestra experiencia digital diaria.
Comprender cómo funcionan estas interconexiones nos ayuda a apreciar la importancia de una infraestructura sólida y confiable para el intercambio de datos en nuestra sociedad actual.
¿QUÉ ES LA INTERCONEXIÓN DE REDES?
La interconexión de redes vincula múltiples redes informáticas por las que circula la información para formar redes más grandes. Se pueden conectar diferentes tipos de redes con dispositivos intermedios conocidos como puertas de enlace y, una vez conectados, actúan como una sola red grande.
La interconexión de redes se desarrolló como una respuesta a varios problemas encontrados cuando se inventaron los primeros ordenadores personales, y constituye la base del Internet moderno que conocemos hoy en día.
DIFERENTES TIPOS DE REDES QUE FORMAN UNA INTERCONEXIÓN
Los diferentes tipos de redes que se unen para formar una interconexión de redes pueden clasificarse como redes de área local (LAN) y redes de área amplia (WAN).
La red de área local (LAN): está limitada a un área geográfica pequeña, como, por ejemplo, un bloque de oficinas o incluso una red de ordenadores y dispositivos en un hogar. Una red de área local (LAN) se usa para muchos propósitos, como compartir recursos, juegos y colaboración. Su infraestructura completa pertenece a la propia empresa en la que se incluyen dispositivos como interruptores y cables. Una LAN proporciona conectividad de alta velocidad que va desde 10 Mbps a 10 Gbps, pero los medios sufren limitaciones de distancia.
Las redes de área amplia (WAN): cubren un área geográfica más amplia, como ciudades, países o incluso continentes. Las redes de área amplia (WAN) se utilizan para interconectar varias redes de área local que se encuentran a varios kilómetros de distancia. Debido a la conectividad de larga distancia, una organización tiene que comprar el servicio WAN de un proveedor de servicios o un operador. Hay varios tipos de redes de área amplia, como líneas arrendadas, redes de conmutación de circuitos y redes de conmutación de paquetes.
TIPOS DE INTERCONEXIÓN DE REDES
Hay principalmente 3 unidades de interconexión de redes: extranet, intranet e internet.
Una intranet y extranet pueden tener conexión a la red o no tenerla. Si hay una conexión a la red, la red informática o la unidad de área de extranet generalmente están protegidas contra el acceso desde la red si no está autorizado. La red no está pensada para ser una parte de la red informática o extranet, aunque debe funcionar como un portal para acceder a partes de la extranet del grado asociado.
Extranet: es una red informática privada en la que la organización o entidades pueden compartir documentos de forma segura con sus clientes o proveedores. Es el nivel más bajo de interconexión de redes, generalmente impuesto en un área extremadamente personal. La extranet de grado asociado también puede clasificarse como Man, WAN u otra forma de red; sin embargo, no puede abarcar una red de área local, es decir, debe tener al menos una referencia a la red externa de grado asociado.
Intranet: este tipo de red es corporativa y solo pueden acceder a ella los empleados de una empresa, por lo que su uso es principalmente para que el intercambio de información entre distintas áreas sea más fácil. Una intranet puede ser un conjunto de redes interconectadas, que explota el Protocolo de Internet y utiliza herramientas basadas en IP, como navegadores web y herramientas FTP, que están bajo el control de una entidad de cuerpo. Esa entidad cierra la red informática al resto del planeta y solo permite usuarios específicos.
Internet: una red de Internet seleccionada, que consiste en una interconexión mundial de redes gubernamentales, académicas, públicas y personales basadas principalmente en la red de agencias de análisis avanzado (ARPANET). Además, alberga la World Wide Web (WWW) y citado como ‘Internet’ para diferenciarlas de todas las diferentes interconexiones de red genéricas. Los participantes dentro de la web, o sus proveedores de servicios, utilizan direcciones IP obtenidas de los registros de direcciones que gestionan las asignaciones.
Segmentación de la red
La segmentación de la red es una técnica de seguridad de la red que la divide en distintas subredes más pequeñas, que permiten a los equipos de red compartimentar las subredes y otorgar controles y servicios de seguridad únicos a cada subred.
El proceso de segmentación de la red implica dividir una red física en diferentes subredes lógicas. Una vez la red se ha subdividido en unidades más pequeñas y manejables, se aplican controles a los segmentos individuales compartimentados.
Ventajas de la segmentación de la red y motivos para utilizarla
La segmentación de la red proporciona servicios de seguridad específicos para cada segmento de red, lo que brinda más control sobre el tráfico de red, optimiza el rendimiento de la red y mejora la situación de seguridad.
La primera ventaja es una mejora en la seguridad. Es bien sabido que, en lo que a seguridad respecta, no importa lo sólidos que sean la mayoría de los aspectos si hay alguno que sea un punto débil. Una amplia red plana presenta inevitablemente una gran superficie de ataque. Sin embargo, cuando una red amplia se divide en subredes más pequeñas, aislar el tráfico de la red en estas subredes reduce la superficie de ataque e impide el desplazamiento lateral. Por lo tanto, si se vulnera el perímetro de la red, los segmentos de la red evitan que los atacantes se desplacen lateralmente en su interior.
Además, la segmentación proporciona una forma lógica de aislar un ataque activo antes de que se propague por la red. Por ejemplo, la segmentación garantiza que un programa malicioso en un segmento no afecte a los sistemas de otro. Segmentar la red limita la extensión de un ataque y reduce la superficie de ataque al mínimo absoluto.
Ahora hablemos del rendimiento. La segmentación reduce la congestión de la red, lo que elimina el tráfico innecesario en un segmento en particular y mejora el rendimiento de la red. Por ejemplo, los dispositivos médicos de un hospital se pueden ubicar en una subred distinta a la de los visitantes, de forma que los dispositivos médicos no se vean afectados por el tráfico de los invitados que navegan por Internet.
Como resultado de la segmentación de la red, tenemos menos hosts por subred, minimizamos el tráfico local en cada subred y limitamos el tráfico externo solo al designado para la subred.
Funcionamiento de la segmentación de la red
La segmentación de la red crea múltiples segmentos aislados dentro de una red más grande, cada uno de los cuales puede tener diferentes requisitos y políticas de seguridad. Estos segmentos contienen tipos específicos de aplicaciones o terminales que tienen el mismo nivel de confianza.
Hay varias formas de segmentar la red. Veremos la segmentación basada en el perímetro implementada con VLAN y, a continuación, la segmentación que se efectúa a más profundidad mediante técnicas de virtualización de red.
Segmentación basada en el perímetro
La segmentación basada en el perímetro crea segmentos internos y externos basados en la confianza: los elementos internos del segmento de red se consideran fiables, los elementos externos no. Como resultado, apenas se restringen los recursos internos, que suelen funcionar en una red plana con una mínima segmentación interna de la red. El filtrado y la segmentación tienen lugar en puntos de red fijos.
Originalmente, las VLAN se introdujeron para dividir los dominios de difusión y mejorar el rendimiento de la red. Con el tiempo, las VLAN se convirtieron en una herramienta de seguridad, aunque no se idearon para este fin. El problema con este tipo de red es que no hay filtrado dentro de la VLAN misma, el acceso es muy amplio.
Además, para desplazarse entre segmentos, es necesario que existan políticas. Con una política, puede detener o limitar el flujo de tráfico de un segmento a otro (según el tipo, el origen y el destino del tráfico).
El cortafuegos de red es una herramienta común que se utiliza para la segmentación basada en el perímetro. En origen se utilizaba para controlar el tráfico norte-sur de la red, pero permitía la comunicación entre cualquier elemento dentro del segmento.
Virtualización de red
Hoy en día, muchas organizaciones mantienen una variedad de áreas de red con funciones específicas que requieren la segmentación en muchos puntos de la red. Además, cada vez hay más tipos de terminales con los que la red debe ser compatible, cada uno con un nivel de confianza distinto.
Como resultado, la segmentación basada en el perímetro ya no es suficiente. Con la llegada de desarrollos como la nube, el uso de dispositivos personales en el trabajo (BYOD) y los dispositivos móviles, el perímetro se ha difuminado y ya no tiene unos límites claros. Ahora, para mejorar la seguridad y el rendimiento de la red, es necesario segmentarla más y de manera más profunda. Además, con los patrones de tráfico este-oeste actuales, la segmentación de la red es aún más necesaria. Aquí es donde entra en juego la virtualización de red, ya que posibilita una mejor segmentación.
En su forma más simple, la virtualización de redes es el aprovisionamiento de servicios de red y seguridad independientes de la infraestructura física. Al permitir la segmentación en toda la red, y no solo en el perímetro, la virtualización es fundamental para impulsar una segmentación de la red más eficiente. En efecto, la segmentación basada en el perímetro a la que antes estábamos acostumbrados ahora está virtualizada y distribuida, junto con políticas de seguridad flexibles y detalladas, en todos y cada uno de los segmentos de la red.
Hubs
Un hub es un dispositivo de red que conecta diferentes nodos de, por ejemplo, una red Ethernet con configuración en estrella. En el modelo de referencia OSI (Open Systems Interconnections), los hubs se clasifican como elementos de la capa 1 que operan en la capa física. Su principal cometido es conectar varios ordenadores entre sí y reenviar inmediatamente los datos recibidos. Los hubs suelen ser de plástico, necesitan una fuente de alimentación externa para funcionar y contienen entre 4 y 16 puertos, es decir, conexiones físicas. Su ancho de banda máximo suele ser de 10/100 Mbit por segundo. El término “hub” procede del inglés y significa “centro” o “nodo”.
¿Cómo funciona un hub?
El hub recibe datos y los hace llegar a todos los dispositivos que tiene conectados (hosts), lo hace transmitiendo en modo semidúplex (ambas direcciones, pero no a la misma vez). Todos los puertos (ports) del hub funcionan a la misma velocidad y se encuentran en un dominio de colisión (que incluye todos los dispositivos de red conectados). A diferencia de otros dispositivos de red, un hub no ofrece la opción de poder controlar o excluir a un receptor individual. De este modo, siempre que ocurre una transferencia de datos, todos los paquetes de datos se envían a la vez a todos los ordenadores. Esto implica que incluso los dispositivos para los que los paquetes de datos correspondientes no están realmente destinados reciben todos los datos. Así pues, todos los hosts están ocupados y mientras tanto los otros dispositivos no pueden enviar ningún dato por sí mismos. En el caso de solicitudes simultáneas, estas se procesan una tras otra.
Si necesitas más hosts, puedes conectar un hub a otro. Esta conexión se puede realizar fácilmente mediante un cable cruzado que vaya de un hub al otro. Sin embargo, el número de hosts está limitado de forma automática por la regla 5-4-3. Esta regla dicta que entre dos terminales se puede utilizar un máximo de cinco segmentos con cuatro repetidores. Además, cuando se utiliza un hub, los hosts conectados comparten todo el ancho de banda. Esto conduce inevitablemente a pérdidas de velocidad, especialmente cuando se transfieren grandes paquetes de datos.
Repetidores.
Un repetidor WiFi, también llamado amplificador o adaptador WiFi, es uno de los dispositivos que puedes encontrar para ampliar la cobertura de tu red doméstica. Sí, las conexiones con cable son lo mejor desde el punto de vista de la velocidad, pero no siempre es posible por cuestiones de distancia y cantidad de dispositivos a conectar. E incluso el alcance de tu router tiene también sus límites.
Y es precisamente en estos momentos en los que entran en función los repetidores WiFi como la alternativa más económica para ampliar la cobertura de tu red. Lo que hacen es captar la señal de la red WiFi que ya tengas en tu casa, y la amplía para que llegue más lejos. La señal es exactamente la misma, con el mismo nombre para la WiFi y una misma contraseña.
Por lo tanto, lo que tenemos es un dispositivo que hace de puente entre el área donde tienes buena cobertura WiFi y la zona a la que la quieres ampliar por tener una señal más débil. Esto lo hace captando la señal de la WiFi que llega hasta él, y luego ampliándola con sus propias antenas.
Esta especie de "puente" funciona en ambas direcciones. Esto quiere decir que no sólo lleva los datos de tu router a una zona donde su cobertura original no llega, sino que recoge los datos de los dispositivos que haya en esa misma zona y los envía de vuelta al router para que pueda haber una conexión fluida, y la experiencia sea la misma que si estuviera allí el router.
Puente de red
Puente de red (en inglés: bridge) es el dispositivo de interconexión de redes de computadoras que opera en la capa 2 (nivel de enlace de datos) del modelo OSI.
Ejemplo genérico: 19 segmentos de red conectados mediante un puente de red.
Interconecta segmentos de red (o divide una red en segmentos) haciendo la transferencia de datos de una red hacia otra con base en la dirección física de destino de cada paquete.
El término bridge, formalmente, responde a un dispositivo que se comporta de acuerdo con el estándar IEEE 802.1D.
En definitiva, un bridge conecta segmentos de red formando una sola subred (permite conexión entre equipos sin necesidad de routers). Funciona a través de una tabla de direcciones MAC detectadas en cada segmento al que está conectado. Cuando detecta que un nodo de uno de los segmentos está intentando transmitir datos a un nodo del otro, el bridge copia la trama para el otro segmento de red, teniendo la capacidad de desechar la trama (filtrado) en caso de no tener dicho segmento de red como destino. Para conocer por dónde enviar cada trama que le llega (encaminamiento) incluye un mecanismo de aprendizaje automático (auto aprendizaje) por lo que no necesitan configuración manual.
Encaminamiento o Ruteo
Encaminamiento. También llamado enrutamiento o ruteo, es la función de buscar un camino entre todos los posibles en una red de paquetes cuyas topologías poseen una gran conectividad. Dado que se trata de encontrar la mejor ruta posible, lo primero será definir qué se entiende por "mejor ruta" y en consecuencia cuál es la "métrica" que se debe utilizar para medirla.
Características
Se puede definir el enrutamiento como la capacidad de transmitir datos entre redes interconectadas. Al agente encargado de realizar este encaminamiento de información entre redes se conoce como enrutador o router pudiendo ser de tipo hardware si es un dispositivo físico dedicado al encaminamiento y de tipo software en caso de ser un PC que ejecuta una aplicación que realice las funciones propias del enrutamiento.
Con el software adecuado, el servidor podrá actuar de enrutador en la red de manera que permitirá que los equipos de la red local se conecten a Internet como si lo hicieran a través de un router.
La tecnología empleada para permitir que los equipos de la red local se conecten a Internet a través del servidor se denomina NAT - Network Address Traslation (Traducción de Direcciones de Red). El software NAT que se ejecuta en el servidor permite, que con una única dirección IP pública en el servidor, tengan acceso a Internet el resto de PCs de la red.
En los PCs de la red local se deberá configurar como puerta de enlace (gateway) la dirección IP interna del servidor para que sea éste quien reciba y procese los paquetes provenientes de la red interna y con destino hacia Internet.
Cuando desde un PC de la red local se quiere acceder a Internet, el paquete de datos se enviará al servidor ya que es la puerta de enlace. El software NAT del servidor cambiará en el paquete de datos la dirección IP de origen del PC de la red local por la dirección IP pública del servidor y lanzará el paquete de datos hacia Internet. En una tabla interna almacenará el puerto de salida del paquete junto con la IP del PC de la red local con la finalidad de que cuando llegue la respuesta desde Internet, realizar el proceso inverso y poder redirigirlo hacia el PC que lanzó la petición.
Si el servidor, dispone además de servidor DHCP, la configuración de las direcciones IP, la puerta de enlace y el servidor DNS de nuestros PCs, podrá ser establecida automáticamente por el servidor DHCP.
Parámetros
Métrica de la red.
Puede ser, por ejemplo, el número de saltos necesarios para ir de un punto a otro. Aunque ésta no es una métrica óptima ya que supone “1” para todos los enlaces, es sencilla y suele ofrecer buenos resultados.
Otro tipo de métrica es la medición del retardo de tránsito entre nodos vecinos, en la que la métrica se expresa en unidades de tiempo y sus valores no son constantes sino que dependen del tráfico de la red.
La métrica simplemente es un valor que toman los diferentes protocolos de enrutamiento para poder determinar cual es la mejor ruta hacia una red de destino. No es difícil encontrarse con situaciones donde un router tenga más de un único camino hacia una red de destino y, por lo tanto, deberá emplear algún método para determinar cual de esos caminos le conviene más. En algunos casos el router determinará que el mejor camino es aquel cuya distancia es menor o en otros casos determinará que la mejor ruta es aquella que tiene mejor ancho de banda. Esto va a depender de cual sea el protocolo de enrutamiento que se esté utilizando, ya que cada uno usa una métrica diferente.
Mejor ruta
Entendemos por mejor ruta aquella que cumple las siguientes condiciones:
•Consigue mantener acotado el retardo entre pares de nodos de la red.
•Consigue ofrecer altas cadencias efectivas independientemente del retardo medio de tránsito.
•Permite ofrecer el menor costo.
El criterio más sencillo es elegir el camino más corto, es decir la ruta que pasa por el menor número de nodos. Una generalización de este criterio es el de “coste mínimo”. En general, el concepto de distancia o coste de un canal es una medida de la calidad del enlace basado en la métrica que se haya definido. En la práctica se utilizan varias métricas simultáneamente.
Encaminamiento en redes de circuitos virtuales y de datagramas.
Cuando la red de conmutación de paquetes funciona en modo circuito virtual, generalmente la función de encaminamiento establece una ruta que no cambia durante el tiempo de vida de ese circuito virtual. En este caso el encaminamiento se decide por sesión.
Una red que funciona en modo datagrama no tiene el compromiso de garantizar la entrega ordenada de los paquetes, por lo que los nodos pueden cambiar el criterio de encaminamiento para cada paquete que ha de mandar. Cualquier cambio en la topología de la red tiene fácil solución en cuanto a encaminamiento se refiere, una vez que el algoritmo correspondiente haya descubierto el nuevo camino óptimo.
Clasificación de métodos.
Los algoritmos de encaminamiento pueden agruparse en:
•Deterministas o estáticos
No tienen en cuenta el estado de la subred al tomar las decisiones de encaminamiento. Las tablas de encaminamiento de los nodos se configuran de forma manual y permanecen inalterables hasta que no se vuelve a actuar sobre ellas. Por tanto, la adaptación en tiempo real a los cambios de las condiciones de la red es nula.
El cálculo de la ruta óptima es también fuera de línea (off-line) por lo que no importa ni la complejidad del algoritmo ni el tiempo requerido para su convergencia. Ej: algoritmo de Dijkstra.
Estos algoritmos son rígidos, rápidos y de diseño simple, sin embargo son los que peores decisiones toman en general.
•Adaptativos o dinámicos
Pueden hacer más tolerantes a cambios en la subred tales como variaciones en el tráfico, incremento del retardo o fallas en la topología. El encaminamiento dinámico o adaptativo se puede clasificar a su vez en tres categorías, dependiendo de donde se tomen las decisiones y del origen de la información intercambiada:
1. Adaptativo centralizado: todos los nodos de la red son iguales excepto un nodo central que es quien recoge la información de control y los datos de los demás nodos para calcular con ellos la tabla de encaminamiento. Este método tiene el inconveniente de que consume abundantes recursos de la propia red.
2. Adaptativo distribuido: este tipo de encaminamiento se caracteriza porque el algoritmo correspondiente se ejecuta por igual en todos los nodos de la subred. Cada nodo recalcula continuamente la tabla de encaminamiento a partir de dicha información y de la que contiene en su propia base de datos. A este tipo pertenecen dos de los más utilizados en Internet que son los algoritmos por vector de distancias y los de estado de enlace.
3. Adaptativo aislado: se caracterizan por la sencillez del método que utilizan para adaptarse al estado cambiante de la red. Su respuesta a los cambios de tráfico o de topología se obtiene a partir de la información propia y local de cada nodo. Un caso típico es el encaminamiento “por inundación” cuyo mecanismo consiste en reenviar cada paquete recibido con destino a otros nodos, por todos los enlaces excepto por el que llegó.
Encaminamiento adaptativo con algoritmos distribuidos
El encaminamiento mediante algoritmos distribuidos constituye el prototipo de modelo de encaminamiento adaptativo. Los algoritmos se ejecutan en los nodos de la red con los últimos datos que han recibido sobre su estado y convergen rápidamente optimizando sus nuevas rutas.
El resultado es que las tablas de encaminamiento se adaptan automáticamente a los cambios de la red y a las sobrecargas de tráfico. A cambio, los algoritmos tienen una mayor complejidad. Existen dos tipos principales de algoritmos de encaminamiento adaptativo distribuido.
•Algoritmos por “vector de distancias”
Estos métodos utilizan el algoritmo de Bellman-Ford. Busca la ruta de menor coste por el método de búsqueda indirecta El vector de distancias asociado al nodo de una red, es un paquete de control que contiene la distancia a los nodos de la red conocidos hasta el momento.
Cada nodo envía a sus vecinos las distancias que conoce a través de este paquete. Los nodos vecinos examinan esta información y la comparan con la que ya tienen, actualizando su tabla de encaminamiento.
Ejemplos de protocolos por vector de distancias: RIP (versión 1 y 2), IGRP.
•Algoritmos de “estado de enlace”
Este tipo de encaminamiento se basa en que cada nodo llegue a conocer la topología de la red y los costes (retardos) asociados a los enlaces, para que a partir de estos datos, pueda obtener el árbol y la tabla de encaminamiento tras aplicar el algoritmo de coste mínimo (algoritmo de Dijkstra) al grafo de la red
Los protocolos estado de enlace incluyen OSPF e IS-IS.
Protocolos de encaminamiento y sistemas autónomos
En Internet, un sistema autónomo (AS) se trata de un conjunto de redes IP y routers que se encuentran bajo el control de una misma entidad (en ocasiones varias) y que poseen una política de encaminamiento similar a Internet. Dependiendo de la relación de un router con un sistema autónomo (AS), encontramos diferentes clasificaciones de protocolos:
•Protocolos de encaminamiento Ad hoc. Se encuentran en aquellas redes que tienen poca o ninguna infraestructura.
•IGP (Interior Gateway Protocols): intercambian información de encaminamiento dentro de un único sistema autónomo. Los ejemplos más comunes son:
-IGRP (Interior Gateway Routing Protocol): la diferencia con la RIP es la métrica de enrutamiento.
-EIGRP (Enhanced Interior Gateway Routing Protocol): es un protocolo de enrutamiento vector-distancia y estado de enlace.
-OSPF (Open Shortest Path First): enrutamiento jerárquico de pasarela interior.
-RIPv2T (Routing Information Protocol): no soporta conceptos de sistemas autónomos.
-IS-IS (Intermediate System to Intermediate System): protocolo de intercambio enrutador de sistema intermedio a sistema intermedio.
-EGP (Exterior Gateway Protocol): intercambian rutas entre diferentes sistemas autónomos. Encontramos:
-EGP: utilizado para conectar la red de backbones de la antigua Internet.
-BGP (Border Gateway Protocol): la actual versión, BGPv4 data de 1995.
Router
Un router es un dispositivo que proporciona Wi-Fi y que generalmente está conectado a un módem. Envía información desde Internet a los dispositivos personales, como computadoras, teléfonos o tablets. Los dispositivos conectados a Internet de tu casa conforman la red de área local (LAN). Después de que el módem obtiene información de Internet, el router distribuye estos datos a los dispositivos personales.
Pasarelas de direccionamiento TCP/IP
Las pasarelas son un tipo de direccionador. Los direccionadores conectan dos o más redes y proporcionan la función de direccionamiento. Algunos direccionadores, por ejemplo, direccionan a nivel de interfaz de red o a nivel físico. Sin embargo, las pasarelas direccionan a nivel de red.
Las pasarelas reciben datagramas IP de otras pasarelas o sistemas principales para entregarlos a los sistemas principales de la red local y direccionan los datagramas IP de una red a otra. Por ejemplo, una pasarela que conecta dos Redes en anillo tiene dos tarjetas adaptadoras de Red en anillo, cada una con su propia interfaz de Red en anillo. Para pasar información, la pasarela recibe datagramas a través de una interfaz de red y los envía a través de la otra interfaz de red. Las pasarelas verifican periódicamente las conexiones de red mediante mensajes de estado de interfaz.
Las pasarelas direccionan los paquetes de acuerdo con la red de destino, no de acuerdo con el sistema principal de destino. Es decir, no se necesita una máquina de pasarela para hacer el seguimiento de cada destino de sistema principal posible para un paquete. En lugar de ello, una pasarela direcciona los paquetes de acuerdo con la red del sistema principal de destino. Entonces la red de destino se encarga de enviar el paquete al sistema principal de destino. De este modo, una máquina de pasarela típica sólo necesita una capacidad de almacenamiento de disco limitada (si existe) y una capacidad de memoria principal limitada.
Sub-Red
Una subred es una red dentro de una red. Las subredes hacen que las redes sean más eficientes. Mediante la creación de subredes, el tráfico de la red puede recorrer una distancia más corta sin tener que pasar por routers innecesarios para llegar a su destino.
diagrama de subred
Imaginemos que Alice envía una carta dirigida a Bob, que vive en la ciudad de al lado. Para que la carta llegue a Bob lo antes posible, debe ser entregada directamente desde la oficina de correos de Alice a la oficina de correos de la ciudad de Bob, y luego a Bob. Si la carta se envía primero a una oficina de correos situada a cientos de kilómetros, la carta de Alice podría tardar mucho más en llegar a Bob.
Al igual que pasa con el servicio de correos, las redes son más eficientes cuando los mensajes viajan de la forma más directa posible. Cuando una red recibe paquetes de datos de otra red, los clasifica y enruta por subredes para que los paquetes no tomen una ruta ineficiente hacia su destino.
¿Qué es una dirección IP?
Para entender las subredes, debemos definir rápidamente las direcciones IP. A cada dispositivo que se conecta a Internet se le asigna una dirección IP única (Protocolo de Internet), lo cual permite que los datos enviados a través de Internet alcancen el dispositivo correcto de entre los miles de millones de dispositivos conectados a Internet. Mientras que los ordenadores leen las direcciones IP en código binario (una serie de unos y ceros), las direcciones IP suelen escribirse con una serie de caracteres alfanuméricos.
¿Qué significan las diferentes partes de una dirección IP?
Esta sección se centra en las direcciones IPv4, que se presentan en forma de cuatro números decimales separados por puntos, como 203.0.113.112. (Las direcciones IPv6 son más largas, y usan letras y números).
Cada dirección IP tiene dos partes. La primera parte indica a qué red pertenece la dirección. La segunda parte especifica el dispositivo en esa red." Sin embargo, la longitud de la "primera parte" de cambia en función de la clase de red.
Las redes se clasifican en diferentes clases, etiquetadas de la A a la E. Las redes de clase A pueden conectar millones de dispositivos. Las redes de clase B y clase C son progresivamente más pequeñas. (Las redes de clase D y de clase E no se suelen utilizar).
Desglosemos cómo afectan estas clases a la construcción de direcciones IP:
Red de clase A: Todo lo que va antes del primer punto indica la red, y todo lo que va después especifica el dispositivo en esa red. Si usamos 203.0.113.112 como ejemplo, la red se indica con "203" y el dispositivo con "0.113.112."
Red de clase B: Todo lo que va antes del segundo punto indica la red. Si usamos de nuevo 203.0.113.112 como ejemplo, "203.0" indica la red y "113.112" indica el dispositivo en esa red.
Red de clase C: En las redes de clase C, todo lo que va antes del tercer punto indica la red. Si usamos el mismo ejemplo, "203.0.113" indica la red de clase C, y "112" indica el dispositivo.
Redes X.25
X.25 es una recomendación del ITU-T (Telecommunications Standardization Sector) que define el nivel físico (capa física), el nivel de enlace (capa de enlace de datos) y el nivel de paquete (capa de red) del modelo de referencia OSI (interconexión de sistemas abiertos).
Una red X.25 es una interfaz entre el equipo de terminal de datos (DTE) y el equipo de terminación de circuito de datos (DCE) que opera en la modalidad de paquete. Una red X.25 se conecta a redes de datos públicas mediante circuitos dedicados. Las redes X.25 utilizan el servicio de red en modalidad de conexión.
Una línea X.25 del iSeries puede conectarse mediante una red de datos de conmutación de paquetes (PSDN) y un sistema remoto adyacente utilizando una línea física no conmutada o conmutada. Una conexión de línea conmutada se establece bajo petición entre el sistema iSeries y la red X.25. En las conexiones de línea no conmutada, el sistema iSeries soporta tanto los circuitos virtuales conmutados (SVC) como los circuitos virtuales permanentes (PVC). En las líneas físicas conmutadas, el sistema iSeries sólo da soporte a SVC.
Una línea X.25 soporta uno o varios circuitos virtuales. Cada uno de los circuitos virtuales puede soportar uno de lo siguiente:
•Una o varias sesiones SNA (arquitectura de red de sistemas) que pueden incluir APPC (comunicaciones avanzadas programa a programa), recurso hacia la gama alta en SNA, estaciones de trabajo remotas o comunicaciones financieras.
•Una conexión con un sistema principal de comunicaciones asíncronas (el sistema primario o de control de una red de comunicaciones).
•Una conexión con un dispositivo asíncrono mediante la función de ensamblador/desensamblador de paquetes (PAD) de la red X.25.
•Una conexión con un sistema principal de comunicaciones asíncronas mediante la emulación de ensamblador/desensamblador de paquetes (PAD) del iSeries
•Un recurso de comunicaciones definido por el usuario.
•Un enlace TCP/IP a un nodo IP adyacente o pasarela (Una pasarela es un dispositivo que se emplea para conectar dos sistemas que utilizan protocolos de comunicaciones distintos).
Frame relay
Frame Relay (o Frame-mode Bearer Service) era un protocolo de comunicación mediante retransmisión de tramas para redes de circuito virtual, introducida por la ITU-T a partir de la recomendación I.122 de 1988. Consiste en una forma simplificada de tecnología de conmutación de paquetes que transmite una variedad de tamaños de tramas o marcos (“frames”) para datos, perfecto para la transmisión de grandes cantidades de datos.
La técnica Frame Relay se utiliza para un servicio de transmisión de voz y datos a alta velocidad que permite la interconexión de redes de área local separadas geográficamente a un coste menor.
Frame Relay proporciona conexiones entre usuarios a través de una red pública, del mismo modo que lo haría una red privada punto a punto, esto quiere decir que es orientado a la conexión.
Las conexiones pueden ser del tipo permanente (PVC, Permanent Virtual Circuit) o conmutadas (SVC, Switched Virtual Circuit). Por ahora solo se utiliza la permanente. De hecho, su gran ventaja es la de reemplazar las líneas privadas por un solo enlace a la red.
El uso de conexiones implica que los nodos de la red son conmutadores, y las tramas deben llegar ordenadas al destinatario, ya que todas siguen el mismo camino a través de la red, puede manejar tanto tráfico de datos como de voz.
Al contratar un servicio Frame Relay, contratamos un ancho de banda determinado en un tiempo determinado. A este ancho de banda se le conoce como CIR (Committed Information Rate). Esta velocidad, surge de la división de Bc (Committed Burst), entre Tc (el intervalo de tiempo). No obstante, una de las características de Frame Relay es su capacidad para adaptarse a las necesidades de las aplicaciones, pudiendo usar una mayor velocidad de la contratada en momentos puntuales, adaptándose muy bien al tráfico en ráfagas. Aunque la media de tráfico en el intervalo Tc no deberá superar la cantidad estipulada Bc.
Estos bits de Bc serán enviados de forma transparente. No obstante, cabe la posibilidad de transmitir por encima del CIR contratado, mediante los Be (Excess Burst). Estos datos que superan lo contratado, serán enviados en modo best-effort, activándose el bit DE de estas tramas, con lo que serán las primeras en ser descartadas en caso de congestión en algún nodo.
Como se observa en la imagen, las tramas que superen la cantidad de Bc+Be en el intervalo, serán descartadas directamente sin llegar a entrar en la red, sin embargo las que superan la cantidad Bc pero no Bc+Be se marcan como descartables (DE=1) para ser estas las primeras en ser eliminadas en caso de congestión.
Para realizar control de congestión de la red, Frame Relay activa unos bits, que se llaman FECN (forward explicit congestion notification), BECN (backward explicit congestion notification) y DE (Discard Eligibility). Para ello utiliza el protocolo LAPF, un protocolo de nivel de enlace que mejora al protocolo LAPD.
FECN se activa, o lo que es lo mismo, se pone en 1, cuando hay congestión en el mismo sentido que va la trama.
BECN se activa cuando hay congestión en el sentido opuesto a la transmisión. DE igual a 1 indica que la trama será descartable en cuanto haya congestión. Se utiliza el llamado Algoritmo del Cubo Agujereado, de forma que se simulan 2 cubos con un agujero en el fondo: Por el primero de ellos pasan las tramas con un tráfico inferior a CIR, el que supera este límite pasa al segundo cubo, por el que pasará el tráfico inferior a CIR+EIR (y que tendrán DE=1). El que supera este segundo cubo es descartado.
En cada nodo hay un gestor de tramas, que decide, en caso de congestión, a quien notificar, si es leve avisa a las estaciones que generan más tráfico, si es severa le avisa a todos. Siguiendo el algoritmo anterior, podríamos descartar en el peor de los casos el tráfico que pasa a través del segundo cubo. Este funcionamiento garantiza que se cumplen las características de la gestión de tráfico.
Por otro lado, no lleva a cabo ningún tipo de control de errores o flujo, ya que delega ese tipo de responsabilidades en capas superiores, obteniendo como resultado una notable reducción del tráfico en la red, aumentando significativamente su rendimiento. Esta delegación de responsabilidades también conlleva otra consecuencia, y es la reducción del tamaño de su cabecera, necesitando de menor tiempo de proceso en los nodos de la red y consiguiendo de nuevo una mayor eficiencia. Esta delegación de control de errores en capas superiores es debido a que Frame Relay trabaja bajo redes digitales en las cuales la probabilidad de error es muy baja.
Aplicaciones y Beneficios
•Reducción de complejidad en la red. Elecciones virtuales múltiples son capaces de compartir la misma línea de acceso.
•Equipo a costo reducido. Se reduce las necesidades de “hardware” y el procesamiento simplificado ofrece un menor coste.
•Mejora del desempeño y del tiempo de respuesta.
Mayor disponibilidad en la red. Las conexiones a la red pueden redirigirse automáticamente a diversos cursos cuando ocurre un error.
•Se pueden utilizar procedimientos de Calidad de Servicio (QoS) basados en el funcionamiento Frame Relay.
•Tarifa fija. Los precios no son sensibles a la distancia, lo que significa que los clientes no son penalizados por conexiones a largas distancias.
•Mayor flexibilidad. Las conexiones son definidas por los programas. Los cambios hechos a la red son más rápidos y a menor coste si se comparan con otros servicios.
•Ofrece mayores velocidades y rendimiento, a la vez que provee la eficiencia de ancho de banda que viene como resultado de los múltiples circuitos virtuales que comparten un puerto de una sola línea.
•Los servicios de Frame Relay son fiables y de alto rendimiento. Son un método económico de enviar datos, convirtiéndolo en una alternativa a las líneas dedicadas.
El Frame Relay es ideal para usuarios que necesitan una conexión de mediana o alta velocidad para mantener un tráfico de datos entre localidades múltiples y distantes .
Opcionales WEB, Libros virtuales: redes...
Desventajas
•Solo ha sido definido para velocidades de hasta 1,544/2,048 Mbps.
•No soporta aplicaciones sensibles al tiempo, al menos de forma estándar.
•No garantiza la entrega de los datos.
Frame Relay constituye un método de comunicación orientado a paquetes para la conexión de sistemas informáticos. Se utiliza principalmente para la interconexión de redes de área local (LANs, local area networks) y redes de área extensa (WANs, wide area networks) sobre redes públicas o privadas. La mayoría de compañías públicas de telecomunicaciones ofrecen los servicios Frame Relay como una forma de establecer conexiones virtuales de área extensa que ofrezcan unas prestaciones relativamente altas. Frame Relay es una interfaz de usuario dentro de una red de conmutación de paquetes de área extensa, que típicamente ofrece un ancho de banda comprendida en el rango de 56 kbit/s y 1.544 Mbit/s. Frame Relay se originó a partir de las interfaces ISND y se propuso como estándar al Comité consultivo internacional para telegrafía y telefonía (CCITT) en 1984. El comité de normalización T1S1 de los Estados Unidos, acreditado por el Instituto americano de normalización (ANSI), realizó parte del trabajo preliminar sobre Frame Relay.
Modo de transferencia asíncrona
El modo de transferencia asíncrona (Asynchronous Transfer Mode, ATM) es, según el ya desaparecido ATM Forum, "un concepto de telecomunicaciones definido por las normas de las organizaciones ANSI y UIT para el transporte de una gama completa de tráfico de usuarios, incluidas las señales de voz, datos y video".[1] ATM fue desarrollado para satisfacer las necesidades de la Red digital de servicios integrados de banda ancha, tal como se definió a fines de la década de 1980[2] y diseñada para integrar redes de telecomunicaciones. Además, fue diseñado para redes que deben manejar el tráfico tradicional de datos de alto rendimiento (por ejemplo, transferencias de archivos) y contenido de baja latencia en tiempo real, como voz y video. El modelo de referencia para ATM se asemeja a las tres capas más bajas del modelo de referencia ISO-OSI: capa de red, capa de enlace de datos y capa física.
Tarjeta de red ATM de 25 Mbps con interfaz PCI y conexión de par trenzado.
ATM proporciona una funcionalidad similar tanto a la conmutación de circuitos como a las redes de conmutación de paquetes: ATM utiliza multiplexación por división de tiempo asincrónica[3][4] y codifica datos en paquetes pequeños de tamaño fijo (tramas ISO-OSI) llamadas celda. Esto difiere de los enfoques como el Protocolo de Internet o Ethernet que usan paquetes y tramas de tamaño variable. ATM utiliza un modelo orientado a la conexión en el que se debe establecer un circuito virtual entre dos puntos finales antes de que comience el intercambio de datos real.[3] Estos circuitos virtuales pueden ser "permanentes", es decir, conexiones dedicadas que normalmente están preconfiguradas por el proveedor del servicio, o "conmutadas", es decir, configuradas por llamada usando señalización y desconectadas cuando finaliza la llamada.
ATM es un protocolo central utilizado sobre la red troncal SONET/SDH de la red telefónica pública conmutada y la red digital de servicios integrados (RDSI), pero su uso está disminuyendo a favor de la red de siguiente generación en la cual la comunicación se basa en el Protocolo IP.

_and_Extended_Information_Rate_(EIR).png)
.jpg)
Comentarios
Publicar un comentario