Blog gratis
Reportar
Editar
¡Crea tu blog!
Compartir
¡Sorpréndeme!
redes
el bog de las redes informaticas
« Blog
 
img

RED INFORMATICA

07 de Junio, 2011  ·  General

RED INFORMATICA

Una red de computadoras, también llamada red de ordenadoresred informática, es un conjunto de equipos informáticos conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos,   ondas electromagnéticas o cualquier otro medio para el transporte de datos para compartir información y recursos.  compartir la información.

La finalidad principal para la creación de una red de computadoras es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el coste general de estas acciones.

La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este último, estructura cada red en 7 capas con funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a 4 capas. Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos estándares

 

TIPOS DE REDES 

REDES DE ÁREA LOCAL: las redes de área local (local area networks ) llevan mensajes a velocidades relativamente grande entre computadores conectados a un único medio de comunicaciones : un cable de par trenzado. Un cable coaxial o una fibra óptica. Un segmento es una sección de cable que da servicio y que puede tener varios computadores conectados, el ancho de banda del mismo se reparte entre dichas computadores. Las redes de área local mayores están compuestas por varios segmentos interconectados por conmutadores(switches) o concentradores(hubs. El ancho de banda total del sistema es grande y la latencia pequeña, salvo cuando el tráfico es muy alto.

En los años 70s se han desarrollado varias tecnologías de redes de área local, destacándose Ethernet como tecnología dominante para las redes de área amplia; estando esta carente de garantías necesarias sobre latencia y ancho de banda necesario para la aplicación multimedia. Como consecuencia de esta surge ATM para cubrir estas falencias impidiendo su costo su implementación en redes de área local. Entonces en su lugar se implementan las redes Ethernet de alta velocidad que resuelven estas limitaciones no superando la eficiencia de ATM.

 

REDES DE ÁREA EXTENSA: estas pueden llevar mensajes entre nodos que están a menudo en diferentes organizaciones y quizás separadas por grandes distancias, pero a una velocidad menor que las redes LAN. El medio de comunicación esta compuesto por un conjunto de círculos de enlazadas mediante computadores dedicados, llamados rotures o encaminadores. Esto gestiona la red de comunicaciones y encaminan mensajes o paquetes hacia su destino. En la mayoría de las redes se produce un retardo en cada punto de la ruta a causa de las operaciones de encaminamiento, por lo que la latencia total de la transmisión de un mensaje depende de la ruta seguida y de la carga de trafico en los distintos segmentos que atraviese. La velocidad de las señales electrónicas en la mayoría de los medios es cercana a la velocidad de la luz, y esto impone un límite inferior a la latencia de las transmisiones para las transmisiones de larga distancia.

 

REDES DE ÁREA METROPOLITANA: las redes de área metropolitana (metropolitan area networks)se basan en el gran ancho de banda de las cableadas de cobre y fibra óptica recientemente instalados para la transmisión de videos, voz, y otro tipo de datos. Varias han sido las tecnologías utilizadas para implementar el encaminamiento en las redes LAN, desde Ethernet hasta ATM. IEEE ha publicado la especificación 802.6[IEEE 1994], diseñado expresamente para satisfacer las necesidades de las redes WAN. Las conexiones de línea de suscripción digital ,DLS( digital subscribe line) y los MODEM de cable son un ejemplo de esto. DSL utiliza generalmente conmutadores digitales sobre par trenzado a velocidades entre 0.25 y 6.0 Mbps; la utilización de este par trenzado para las conexiones limita la distancia al conmutador a 1.5 kilómetros . una conexión de MODEM  por cable utiliza una señalización análoga sobre el cable coaxil de televisión para conseguir velocidades de 1.5 Mbps con un alcance superior que DSL.

 

REDES INALÁMBRICAS: la conexión de los dispositivos portátiles y de mano necesitan redes de comunicaciones inalámbricas(wireless networks). Algunos de ellos son la IEEE802.11(wave lan) son verdaderas redes LAN inalámbricas (wireless local área  networks;WLAN) diseñados para ser utilizados en vez de los LAN . También se encuentran las redes de area personal inalámbricas, incluida la red europea mediante el Sistema Global para Comunicaciones Moviles, GSM( global system for mobile communication). En los Estados Unidos , la mayoría de los teléfonos móviles están  actualmente basados en la análoga red de radio celular AMPS, sobre la cual se encuentra la red digital de comunicaciones de Paquetes de Datos Digitales Celular, CDPD( Cellular Digital Packet Data).

Dado el restringido ancho de banda disponible y las otras limitaciones de los conjuntos de protocolos  llamados Protocolos de Aplicación Inalámbrica WAP(Wireless Aplication Protocol)      

 

 

 

INTERREDES: una Interred es un sistema de comunicación compuesto por varias redes que se han enlazado juntas para proporcionar unas posibilidades de comunicación ocultando las tecnologías y los protocolos y métodos de interconexión de las redes individuales que la componen.

Estas son necesarias para el desarrollo de sistemas distribuidos abiertos extensibles. En ellas se puede integrar una gran variedad de tecnología de redes de área local y amplia, para proporcionar la capacidad de trabajo en red necesaria para cada grupo de usuario. Así, las intercedes aportan gran parte de los beneficios de los sistemas abiertos a las comunicaciones de los sistemas distribuidos.

Las intercedes se construyen a partir de varias redes. Estas están interconectadas por computadoras dedicadas llamadas routers y computadores de propósito general llamadas gateways, y por un subsistema integrado de comunicaciones producidos por una capa de software que soporta el direccionamiento y la transmisión de datos a los computadores a través de la interred. Los resultados pueden contemplarse como una red virtual construida a partir de solapar una capa de interred sobre un medio de comunicación que consiste en varias redes, routers y gateways subyacentes.

 

COMPORACION DE REDES: en las redes inalámbricas los paquetes se pierden con frecuencia debido a las interferencias externas, en cambio, en el resto de los tipos de redes la fiabilidad de los mecanismos de transmisión es muy alta. En todos los tipos de redes las perdidas de paquetes son como consecuencia de los retardos de procesamiento o por los desbordamientos en los destinos.

Los paquetes pueden entregarse en diferente orden al que fueron transmitidos. También se pueden entregar copias duplicadas de paquetes, tanto la retransmisión del paquete como el original llegan a su destino.

Todos los fallos descriptos son ocultados por TCP y por otros protocolos llamados protocolos fiables, que hacen posible que las aplicaciones supongan que todo lo que es transmitido será recibido por destinatario. Existen, sin embargo, buenas razones para utilizar protocolos menos fiables como UDP en algunos casos de sistemas distribuidos, y en aquellas circunstancias en las que los programas de aplicación puedan tolerar los fallos.

 

 

 

 

 

Rango

Ancho de Banda

Latencia (ms)

 

 

LAN

WAN

MAN

LAN inalámbrica

WAN inálambrica

Internet

1-2 km.

Mundial

2-50 km

0,15-1,5 km

mundia

mundial

10-1.000

0.010-600

1-150

2-11

0.010-2

0.010-2

1-10

100-500

10

5-20

100-500

100-500

 

 

 

 

 

FUNDAMENTOS DE REDES

 

En las redes se necesita transmitir unidades de información o mensajes: secuencias de items de datos de longitudes arbitrarias. Se divide el mensaje en paquetes antes de ser transmitido. La forma más sencilla de éstos es una secuencia de datos binarios (secuencias de bits o bytes), de una longitud determinada acompañada con información para identificar los computadores origen y destino. Los paquetes deben tener una longitud limitada:

§         De esta manera se puede reservar el espacio de almacenamiento para el almacenamiento de un paquete más largo que pudría llegar a recibirse.

§         Para evitar retardos que podrían ocurrir si se estuviera esperando a que los canales esten libres el tiempo suficiente para enviar un mensaje largo sin dividir.

 

Las bases de redes de computadores es la técnica de conmutación de paquetes en el cuál se aprovecha la capacidad de almacenar información mientras está en transito. Esto posibilita que paquetes con diferentes destinos compartan un mismo enlace de comunicaciones. Se colocan en cola en bufer y se transmiten cuando el enlace está disponible la comunicación es asíncrona, ya que los mensajes llegan a su destino después de un retardo variable que depende del tiempo que tardaron los paquetes en viajar a través de la red. Una red se compone de un conjunto de nodos conectados a través de circuitos.  Para transmitir información entre dos nodos cualquiera se necesita un sistema de conmutación.

 

LOS CUATRO TIPOS DE CONMUTACIÓN SON:

*DIFUSIÓN (broadcast): técnica de transmisión que no involucra cambio alguno. La información es transmitida a todos los nodos y depende de los receptores decidir si el mensaje va dirigido a ellos o no .

*CONMUTACIÓN DE CIRCUITOS: el sistema telefónico plano antiguo es un típico ejemplo de éste tipo de red. Cuando el emisor marca un número, el par de hilos de cobre que lleva desde su teléfono  hasta la centralita es conectado automáticamente al par que va al teléfono receptor.

*CONMUTACIÓN DE  PAQUETES: el tipo de redes de comunicaciones de almacenamiento y reevío (store-and-forward network), envía paquetes desde el origen hacia el destino.  En cada nodo de cambio se encuentra un  computador (halla donde varios circuitos se conectan). Los paquetes que llegan a un nodo se almacenan en la memoria del computador de ese nodo y luego son procesados por un programa que les envía hacia su destino eligiendo uno de los circuitos salientes que llevará al paquetes a otro nodo que estará más cerca del destino que el nodo anterior.

   La transmisión no es instantánea, toma pocas decenas de microsegundas hasta pocos milisegundos para encaminar los paquetes en cada nodo de la red, dependiendo del tamaño del paquete, velocidad de hardware y cantidad de tráfico. Los paquetes pueden ser encaminados hacia muchos nodos antes de que alcance su destino..Los retardos son acumulativos.

*FRAME RELAY(o retransmisión de marcos):este tipo aporta algunas ventajas de la conmutación de circuitos a la conmutación de paquetes.

  Se solucionó el problema de retardo al conmutador, los paquetes pequeños (marcos, frames), según venían al vuelo. Los nodos de conmutación (usualmente son procesadores paralelos de propósitos específico, encaminan los marcos basándose en el examen de los primeros bits, los marcos pasan a través de él como pequeños flujos de bits.

 

 

PROTOCOLOS

Los protocolos de comunicación son grupos de reglas que definen los procedimientos convenciones y métodos utilizados para transmitir datos entre dos o más dispositivos conectados a la red. La definición tiene dos partes importantes:

*Una especificación de las secuencias de mensajes que se han de intercambiar.

*Una especificación del formato de los datos en los mensajes.

La existencia de protocolos posibilita que los componentes software separados pueden desarrollarse independientemente e implementarse en diferentes lenguajes de programación sobre computadores que quizás tengan diferentes representaciones internas de datos.

Un protocolo está implementado por dos módulos software ubicados en el emisor y el receptor. Un proceso transmitirá un mensajes a otro efectuando una llamada al módulo pasándole el mensaje en cierto formato. Se transmitirá el mensaje a su destino, dividiéndolo en paquetes de tamaño y formato determinado. Una vez  recibido el paquete de su módulo realiza transformaciones inversas para regenerar el mensaje antes de dárselo al proceso receptor.

 

PROTOCOLOS A CAPAS: el software de red está jerarquizado en capas, cada una presenta una interfaz a las capas sobre ellas que extiende las propiedades del sistema subyacente. Cada capa se representa por un módulo en cada uno de los computadores conectados a la red.

 

 

 

 

   En éste gráfico se ilustra la estructura y el flujo de datos cuando se transmite un mensajes utilizando la pila de protocolos.

   Cada capa de software de red se comunica con los protocolos que están por encima y por debajo de él mediante llamadas a procedimientos.

    En el lado emisor, cada capa (excepto la superior) acepta items de datos en un formato específico de la capa superior, y después de procesarlos los transforma para encapsularlos según el formato especificado por la capa inferior a la que se los pasa para  su procesamiento. De este modo cada capa proporciona un servicio a la capa superior y extiende el servicio proporcionado por la capa inferior.

 

CONJUNTOS DE PROTOCOLOS: al conjunto completo de capas de protocolos se las denomina como conjunto de protocolos o pila de protocolos, plasmando con ello la estructura de capas.

 

 

   En éste gráfico muestra la pila de protocolos del Modelo de Referencias para Interconexión de Sistemas Abiertos (Open System Interconnection, OSI). Este es un marco de trabajo para la definición de protocolos adoptados para favorecer el desarrollo de estándares de protocolos que pudieran satisfacer los requisitos de sistemas abiertos .

 

Los protocolos por capas proporcionan beneficios al simplificar y generalizar las interfases software para el acceso a los servicios de comunicación de las redes, además implica grandes costos en prestaciones.

   La transmisión de un mensaje de la capa de aplicación vía la pila de protocolos con N capas que involucra N transferencias de control a las capas relevantes en la pila, una de las cuales es una entrada del sistema operativo, y realiza N copias de los datos como parte del mecanismo de encapsulación.

 

 

ENSAMBLADO DE PAQUETES: La tarea de dividir los mensajes en paquetes antes de la transmisión y reensamblarlos en el computador destino se realiza en la capa de transporte.

  Los paquetes de protocolo de la capa de red  están compuestos una  cabecera y por un campo de datos. El campo de datos es de longitud variable, pero tiene un límite llamado unidad máxima de transferencia (MTU).

  Si la longitud del mensaje excede la MTU de la capa de red, debe ser fragmentado en trozos de tamaño apropiado, y debe ser identificado con una secuencia de números para utilizarla en el reensamblado y transmitido en múltiples paquetes.

PUERTOS: la tarea de la capa de transporte es la de proporcionar un servicio de transporte de mensajes independientes de la red entre pares de puertos de red. Los puertos son puntos de destino para la comunicación dentro de un computador definidos por software. Además se asocian a procesos permitiendo la comunicación de un proceso con otro.

DIRECCIONAMIENTO: la capa de transporte es responsable de la entrega de mensajes al destino utilizando una dirección de transporte, que consta de la dirección de red de un computador y de un número de puerto.

  Una dirección de red es un identificador numérico que reconoce de forma única aun computador  y posibilita su localización por parte de los nodos responsables del encadenamiento de los datos.

ENTREGA DE PAQUETES: existen dos aproximaciones a  la hora de entregar paquetes por parte de la capa de red:

Entrega de paquetes tipo datagrama: las características esenciales de los datagrama de red es que la entrega de capa paquete es un proceso de un paso: no requiere ninguna preparación y una vez que el paquete ha sido entregado, la red no guarda información sobre él. Cada miembro de la secuencia de paquetes transmitidos por un  host a  un  destino puede seguir rutas diferentes y talvez lleguen desordenados.

  Cada datagrama contiene la dirección de red completa  delos host origen y destino (las última es esencial para el proceso de encaminamiento) .

Entrega de paquetes por circuito virtual: se debe conseguir un circuito virtual antes de que los paquetes puedan  pasar del  host  origen A al host destino B. El establecimiento del circuito virtual involucra la identificación de las rutas desde el origen al destino. En cada  nodo a lo largo de la ruta se crea una entrada en la tabla de encaminamiento, indicando que enlace debe ser utilizado para la siguiente etapa de la ruta . Una vez configurado el circuitos virtual  puede ser utilizado para transmitir cualquier  número de paquetes.  Cada paquete de la capa de red contiene solo el número de circuito virtual, que es lo que lo encamina en los nodos intermedios, ya cuando alcanzó su destino,  el origen  es determinado a partir de éste número.

  En la entrega de paquetes por éste medio están  representados los circuitos solo por entradas a tablas de los nodos de encaminamiento, y los enlaces sobre los que fueron encaminados los paquetes se utilizan en el tiempo necesario para que el paquete sea transmitido (estando disponible para ser utilizado por otros usuarios el resto del tiempo). Un enlace puede ser empleado por varios circuitos virtuales distintos.  

 

ENCAMINAMIENTO

  Es una función necesaria en todas las redes excepto en aquellas redes LAN que proporcionan conexiones directas entre todos los pares de hosts conectados. En las redes grandes se emplea un encaminamiento adaptativo: se reevalúan periódicamente las mejores rutas para comunicar los puntos de red, teniendo en cuenta el tráfico actual y cualquier fallo como conexiones rotas o ronters caidos.

 

 

La entrega de los paquetes a sus destinos es una  responsabilidad colectiva de los routers situados en los puntos de conexión El paquete deberá ser transmitido en una serie de saltos, pasando a través de los routers. La determinación de las rutas a seguir para que   un paquete llegue a destino es responsabilidad del algoritmo de encaminamiento por un programa en la capa de red de cada nodo.

Un algoritmo de encaminamiento tiene dos partes:

&Tomar decisiones que determinen la ruta seguida por cada paquete  que viajan por la red.

&Debe actualizar dinámicamente su conocimiento de la red basándose en la monotorización  del  tráfico y la detección de cambios de configuración o de fallos .

  Las decisiones de encaminamiento  se toma  salto a salto, utilizando información  local para determinar el siguiente salto a dar por el paquete recién llegado.  La información almacenada localmente es actualizada periódicamente por un algoritmo que distribuye información sobre el estado de los enlaces ( su carga  y sus estados de error ).

 

 

 

 

 

  En este gráfico se puede observar  tablas de encaminamiento que se deben almacenar en cada  routers de la red (suponiendo que la red no tenga ni enlaces ni routers caídos). Cada fila tiene la información de encaminamiento relevante para los paquetes dirigidos a cierto destino. El campo enlace espacifica el enlace de salida para los paquetes dirigidos a cada destino. Las tablas de encaminamiento contienen una entrada por cada posible destino, donde se muestra el siguiente salto que va  hacer para llegar al destino final. Cuando un paquete llega a un routers , se saca su dirección destino y se busca en la tabla . La entrada resultante identifica el enlace de salida que tiene que ser utilizado para encaminar el paquete al destino .

  Los algoritmo de encaminamiento se han orientado hacia el incremento de la cantidad de conocimientos  de la red que se almacena en cada nodo. El mas importante es el algoritmo de estado de enlace que se basa en la distribución y actualización de una base de dato en cada nodo que representa la totalidad o una porción substancial de la red. Cada nodo es responsable de calcular las rutas óptimas para los destinos incluidos en su base de datos.

 

 

CONTROL DE LA CONGESTIÓN.

 

 

La capacidad de la red esta limitada por las prestaciones de sus enlaces de comunicación y por los nodos de conmutación. Con la carga en un enlace o en un nodo se acerca a su capacidad máxima, se forman colas con los mensajes que los hosts están intentando  enviar y en los nodos intermedios se almacenan las trasmisiones que no se pueden realizar al estar bloqueadas por el trafico.

Si la carga continua en el mismo nivel alto las colas seguirán creciendo hasta alcanzar el limite de espacio disponible en cada búfer. Una vez que un nodo alcanza este estado, no tiene otra opción que desechar los paquetes que le llega (la perdida ocasional de paquetes en el nivel de red es aceptable y puede ser remediada mediante retransmisiones el los niveles superiores). La taza de paquetes perdidos y retransmitidos alcanza un determinado nivel, el efecto en el rendimiento de la red puede ser devastador.

 

-         Los paquetes deben ser almacenados en nodos anteriores a los sobrecargados, hasta que la congestión se reduzca. Esto incrementará los recargos de paquetes, pero no degradará el rendimiento de la red.

-         En el control de la congestión se agrupan las técnicas que se diseñan para controlar este aspecto. Esto se consigue informando a los nodos a lo largo de la ruta donde se ha producido la congestión y donde debería reducirse su taza de trasmisión de paquetes. Para los nodos intermedios, esto implicará almacenamiento de paquetes entrantes en cada búfer por un largo período. Para los hosts que son fuente de paquetes, el resultado podría ser que los paquetes sean colocados en colas antes de su transmisión, o bloqueados por procesos que lo generan hasta que la red pueda admitir los paquetes.

-         Las capas de red basadas en datagramas basan el control del tráfico en método de extremo a extremo. El nodo emisor debe reducir las tazas a la que transmite los paquetes basándose el la información que recibe el nodo receptor. La información sobre la congestión es enviada al nodo emisor mediante la transmisión explicita de paquetes especiales (paquetes de estrangulamiento) que solicitan una reducción el la taza de transmisión o mediante la implementación de un protocolo de control de la transmisión específico, o por la observación de ocurrencias de perdidas de paquetes (si el protocolo es uno de aquellos en el que cada paquete es reconocido).

En circuitos virtuales, la información sobre la congestión puede recibirse en todos los nodos, cada uno actuara en consecuencia.

 

 

INTERCONEXIÓN DE REDES
 
 

Para construir una red integrada (una interred) de debe integrar muchas subredes, cada una de las cuales se basa en una tecnología de red. Par hacerlo se necesita:

 

-         Un esquema de direccionamiento unificado que posibilite que los paquetes sean dirigidos a cualquier hosts conectado en cualquier subred.

-         Un protocolo que defina el formato de paquetes interred y las reglas según las cuales serán gestionados.

-          Componentes de interconexión que encaminen paquetes hacia su destino en términos de dirección interred, transmitiendo los paquetes utilizando subredes con tecnología de red variada.

 

Funciones de componentes que se usa para conectar a las redes:

 

·        ROUTERS: en una interred los routers pueden enlazarse mediante conexiones directas o pueden estar interconectados a través  de subredes. Ellos son los responsables de reenviar paquetes de interred  que llegan hacia las conexiones salientes correctas para lo cual se mantienen las tablas de encaminamiento.

·        PUENTES (bridges): enlazan redes de distintos tipos. Algunos puentes comunican varias redes y se llama puente/ruters ya que efectúan funciones de encaminamiento.

·        CONCENTRADORES (hubs): modo para conectar hosts y extender los segmentos de redes locales de difusión. Tienen (entre 4 y 64) conectores a los que conecta hosts. También son utilizados para eludir limitaciones de distancia en un único segmento y proporcionar un modo de añadir hosts adicionales,

·        CONMUTADORES (switch): función similar a un routers, pero restringida a redes locales. La ventaja de estos sobre los concentradores es que pueden separar el tráfico entrante y transmitirlo solo hacia la red de salida relevante, reduciendo la congestión con otras redes a las que estas conectados.

·        TUNELES: los puentes y routers transmiten paquetes de interred sobre una variedad de redes subyacentes, pero se da una situación en la cual el protocolo de red puede quedar oculto para los protocolos superiores sin tener que utilizar un protocolo especial de interred. Cuando un par de nodos conectados a dos redes separadas necesitan comunicarse a través de algún otro tipo de red o sobre un protocolo extraño, pueden hacerlo construyendo un protocolo enterrado o de túnel (tunnelling).

 

Un protocolo tunen es una capa de software que transmite paquetes a través de un entorno de red extraño.

 

 

                                      PROTOCOLOS INTERNET

 

Internet surgió después de dos décadas de investigación y desarrollo de redes de área amplia en los Estados Unidos, comenzando en los primeros años setenta con ARPANET, la primera red de computadoras a gran escala desarrollada. Una parte importante de esa investigación fue el desarrollo del conjunto de protocolos TCP/IP. TCP es el acrónimo de Transmisión Control Protocol (protocolo de control de la transmisión), e IP se refiere a Internet Protocol (protocolo de Internet.

Servicios de aplicación y protocolos de nivel de aplicación basados en TCP/IP, incluyendo el Web (http), el correo electrónico(SMTP,POP), las redes de noticias (TNP), la transferencia de archivos (FTP), y la conexión remota (TELNET). TCP es un protocolo de transporte; puede ser utilizado para soportar aplicaciones directamente sobre él, o se le puede superponer capas adicionales de protocolos para proporcionar características adicionales (el protocolo Secure Sockerts Layer (SSL) es para conseguir canales seguros sobre los que enviar los mensajes http).

Existen dos protocolos de transporte, TCP (Transport Control Protocol) y UDP (User Datagram Protocol). TCP es un protocolo fiable orientado a conexión, mientras que UDP es un protocolo de datagramas que no garantiza fiabilidad en la transmisión. El protocolo Interred IP (Internet Protocol) es el protocolo de red subyacente de la red virtual Internet; esto es, los datagramas proporcionan un mecanismo de trasmisión básico para Internet y otras redes TCP/IP.

Ethernet proporciona una capa de red física que posibilita que los computadores conectados a la misma red intercambien datagramas.

IP se encuentra implementado sobre líneas serie y circuitos telefónicos vía el protocolo PPP, haciendo posible su utilización en las comunicaciones con módem y otros enlaces serie.

El éxito de TCP/IP se basa en su independencia de la tecnología de transmisión subyacente, haciendo posible construir interredes a partir de varias redes y enlaces de datos heterogéneos.

Los usuarios y los programas de aplicación perciben una única red virtual que soporta TCP y UDP, y los constructores de TCP y UDP ven una única red IP virtual, ocultando la diversidad de medios de transmisión.

 

DIRECCIONAMIENTO IP

 

El esquema utilizado debería satisfacer los siguientes requisitos:

  • Debería ser universal.
  • Debería ser eficiente en el uso del espacio de direccionamiento.
  • El esquema de direccionamiento debe conducir por sí mismo al desarrollo de un esquema de encaminamiento flexible y eficiente.

 

 

El esquema elegido asigna una dirección IP a cada host en Internet: un número de 32 bits formado por un identificador de red, que identifica de forma única a una de las subredes de Internet, y por un identificador de host, que identifica de manera única al host conectado a esa subred; escritos como una secuencia de cuatro números decimales separados por puntos. Cada número representa uno de los cuatro bytes u octetos de la dirección IP. Esta dirección se coloca en los paquetes IP y se utiliza para encaminarlos al destino.

Existen cuatro clases de direcciones Internet: A, B, C y D. La clase D se reserva para las comunicaciones de multidifusión, que se implementa sólo sobre algunos routers. La clase E contiene un rango de direcciones no asignadas, que están reservadas para usos futuros.

 

Se diseñaron tres clases de direcciones par satisfacer los requisitos de los distintos tipos de organizaciones. Las direcciones de Clase A, están reservadas para grandes redes como la norteamericana NSFNet y otras redes nacionales de área amplia. Las de Clase B, se reservan para organizaciones que gestionan redes con más de 255 computadores; y las direcciones de Clase C se dedican al resto de redes.

Los indicadores de red son asignados a las organizaciones con redes conectadas a Internet por el Internet Network Information Center (NIC). Los identificadores de host para los computadores de cada red conectado a Internet son asignados por el administrador de la red en cuestión. Dado que las direcciones de host incluyen un identificador de red, cualquier computador que esté conectado a más de una red debe tener una dirección de red para cada una de ellas, y siempre que un computador se mueva a una red diferente, debe cambiar su dirección Internet.

Problema: El administrador de la red no puede predecir el crecimiento futuro de sus necesidades de direcciones de host, por ello se tomaron dos decisiones:

1.- La primera fue el inicio del desarrollo de un nuevo protocolo IP y un nuevo esquema.

2.- La segunda fue modificar el modo en que eran reservadas la direcciones IP.

· El uso del espacio de direcciones IP se volvió más efectivo con un nuevo esquema de reservas y de encaminamiento llamadoencaminamiento interdominio sin clases.

Los routers gestionan la entrega de los paquetes IP a todas las subredes. También manejan el tráfico entre las subredes y desde las subredes hacia el resto del mundo.

 

EL PROTOCOLO IP

 

El protocolo IP es el encargado de transmitir datagramas (paquetes) desde un host a otro, si fuera necesario, vía routers intermediarios.

IP proporciona un servicio de entrega que se puede describir como no fiable o como el mejor posible, porque no existe garantía de entrega. Los paquetes se pueden perder, ser duplicados, sufrir retrasos o ser entregados en un orden distinto al original, pero esos errores surgen sólo cuando las redes subyacentes fallan a cuando los búferes en el destino están llenos. La única comprobación de errores realizada por IP es la suma de comprobación (checksum), de la cabecera, que es asequible de calcular y asegura que no se han detectado alteraciones en los datos bien de direccionamiento o bien de gestión del paquete.

La capa IP coloca los datagramas IP en paquetes de red adecuados para ser transmitidos por la red subyacente. Cuando un datagrama IP es mayor que la MTU de la red subyacente, se divide en el origen en paquetes más pequeños y se reensamblan en su destino final. Cada paquete tiene un identificador de fragmento que hace posible el ensamblado de los paquetes que llegan desordenados.

La capa IP debe insertar una dirección física de red del destino del mensaje antes de confiárselo a la capa inferior. Esa dirección la obtiene del módulo de resolución de direcciones en la capa de Interfaz de Red Internet.

Resolución de direcciones. El módulo de resolución de direcciones es el responsable de la conversión de las direcciones Internet a direcciones de la red, para una red subyacente dada.

La traducción es dependiente de la tecnología de red utilizada:

  • Algunos hosts están conectados directamente a conmutadores de paquetes Internet.
  • Algunas redes de área local permiten que las direcciones de red sean asignadas a los hosts de forma dinámica, y las direcciones pueden ser elegidas de manera que coincidan con la porción del identificador del host de la dirección Internet.
  • Para las redes Ethernet, y para algunas otras redes locales, las direcciones de red de cada computador son establecidas por métodos hardware en las interfaces de red y no guardan ninguna relación con su dirección Internet.

 

IP truncado. Cuando se generan muchas solicitudes de servicio simple ping a un gran número de computadores situados en varios sitios (ping es un servicio simple diseñado para comprobar la disponibilidad de un host). Todas estas solicitudes ping maliciosas contenían en el campo de direcciones del emisor la dirección IP del computador objetivo. Las respuestas al ping fueron, por lo tanto , dirigidas contra el objetivo, cuyos búferes de entrada fueron sobrecargados, impidiendo que cualquier paquete IP legítimo pudiera llegar a ellos.

 

ENCADENAMIENTO IP

La capa IP encamina paquetes desde su origen hasta su destino. Cada router en Internet implementa la capa de software IP para proporcionar un algoritmo de encaminamiento.

Conexiones troncales. La topología de Internet está dividida conceptualmente en sistemas autónomos(AS), que están divididos a su vez enáreas. Cada AS representado en el mapa topológico tiene un área troncal. La colección de routers que conectan las áreas no troncales con la troncal y los enlaces que interconectan esos routers se conocen como la conexión troncal o la columna dorsal de la red.

Protocolos de encaminamiento. Los algoritmos de encaminamiento  utilizados en Internet son:

RIP-1: Algoritmo de vector de distancias.

RIP-2: Algoritmo que incluye el encaminamiento entre dominios sin clases, un mejor encaminamiento multidifusión y la necesidad de autenticar los paquetes RIP para prevenir ataques a los routers. El algoritmo OSPF está basado en un algoritmo de búsqueda de caminos de Dijktra.

Un cambio en el algoritmo de encaminamiento implica una nueva versión del protocolo RIP. El protocolo IP no cambia cuando se introduce un nuevo protocolo RIP. Cualquier router RIP encaminará correctamente los paquetes que le lleguen  por una ruta, si no óptima, si razonable, independientemente de la versión de RIP que utilice.

Dentro de cada área se aplica un único algoritmo de encaminamiento y los routers dentro de un área cooperan para mantener las tablas de encaminamiento.

Routers por defecto. Los algoritmos de encaminamiento ha hecho suponer que cada router mantiene una tabla de encaminamiento completa mostrando la ruta a cualquier destino en Internet. A la escala actual de Internet esto claramente imposible.

Dos posibles soluciones: la primera es adoptar alguna forma de agrupamiento topológico de las direcciones IP. La segunda es la precisión de la información de encaminamiento puede ser escasa en la mayoría de los routers, siempre que algunos routers clave (aquellos más cercanos a los enlaces troncales) tengan unas tablas de encaminamiento relativamente completas. El esquema de encaminamiento por defecto es ampliamente utilizado en Internet; ningún router almacena las rutas para todos los destinos en Internet.

Encaminamiento en subredes locales. Los paquetes dirigidos a la misma red del emisor se transmite al destino en un único salto, utilizando la parte del identificador del host de la dirección para obtener la dirección del host destino en la red subyacente. La capa IP utiliza ARP para conseguir la dirección de red del destino y entonces encomienda a la red subyacente la transmisión de los paquetes.

Si la capa IP del emisor descubre que el destino está en una red diferente, debe enviar el mensaje al router local. Utiliza ARP para conseguir la dirección de red de la pasarela o del router y la utiliza para que la red subyacente transmita el paquete. Las pasarelas y routers están conectados a dos a más redes y tienen varias direcciones Internet, una para cada red a la que están conectados.

Encaminamiento interdominio sin clase (CIDR). El principal problema era la escasez de direcciones de la Clase B, aquéllas para las subredes con más de 255 host conectados, mientras que se encontraban disponibles muchas de las direcciones de la Clase C. La solución CIDR es reservar un bloque de direcciones C contiguas para aquellas subredes que necesitaban más de 255 direcciones. El esquema CIDR también hacía posible la división del espacio de una dirección de Clase B en múltiples subredes.

El cambio adoptado fue añadir un campo de máscara a las tablas de encaminamiento. La máscara es un patrón de bits utilizado para seleccionar la porción de las direcciones IP que será host/subred ocupen cualquier parte de la dirección IP, proporcionando más flexibilidad que las clases A, B y C. De ahí el nombre de encaminamiento entre dominios sin clases.

 

IP VERSIÓN 6

 

El espacio de direccionamiento Ipv6 está particionado. Dos de las mayores particiones se reservan para propósitos generales y serán asignadas a nodos normales. Una de ellas está pensada para estar organizada de acuerdo con las localizaciones geográficas de los nodos, y la otra según los detalles organizativos.

Velocidad de encaminamiento: se ha reducido la complejidad de la cabeza básica Ipv6 y por lo tanto del procesamiento requerido en cada nodo. No se aplican sumas de comprobación de errores al contenido del paquete y los paquetes no se pueden fragmentar una vez que han comenzado su viaje.

Tiempo real y otros servicios especiales: los flujos multimedia y otras secuencias de datos de tiempo real pueden transmitirse como parte de un flujo identificado. El campo prioridad se puede utilizar junto con el campo de etiqueta de flujo, o de manera independiente, para especificar que ciertos paquetes específicos tienen que ser gestionados más rápidamente o con mayor fiabilidad que otros. Las etiquetas de flujo sirven para reservar recursos que permitan cumplir con los requisitos de sincronización.

Evolución futura: es le campo de cabecera siguiente. Si es destino de cero, define el tipo de una extensión de la cabecera que está incluida en el paquete. Existen actualmente distintos tipos de extensiones de cabecera.

Multifunción y monodifusión: tanto Ipv4 como Ipv6 soportan la transmisión de paquetes IP a múltiples destinos utilizando para ello una única dirección destino. Los routers IP son los responsables de encaminar los paquetes a todos los hosts que se han subscripto al grupo identificado por la dirección relevante. Este servicio entrega un paquete a al menos uno de los host subscriptos a la dirección indicada.

Seguridad: precisan autentificación o una transmisión de datos privada tenían que conseguirla mediante el uso de técnicas de criptografía en la capa de aplicación. Según el punto de vista del argumento extremo a extremo. Si la seguridad es implementada en el nivel IP entonces los usuarios y los desarrolladores dependen de la corrección del código que está implementado en cada uno de los routers a lo largo del camino, y deben confiar en los routers y en los nodos intermediarios para gestionar las claves criptográficas.

La ventaja de implementar la seguridad en el nivel IP puede ser utilizada sin necesidad de implementaciones conscientes de la seguridad en los programas de aplicación.

La seguridad en Ipv6 se implementa en las cabeceras de extensión de autentificación y de encriptación de la carga. La carga se encripta y/o firma digitalmente si fuera necesario.

Migración desde IPv4. IP se procesa en la pila de protocolos TCP/IP en todos los hosts y en el software de todos los routers. Las direcciones IP son manejadas por muchas aplicaciones y programas de utilidad. Todos estos elementos necesitan actualizarse para soportar la nueva versión de IP. Pero el cambio se hace inevitable dado el agotamiento del espacio de direcciones Ipv4, y el grupo de trabajo del IETF responsable del Ipv6 ha definido una estrategia de migración, que consiste en la obtención de islas de routers y hosts Ipv6 comunicados mediante túneles, que progresivamente se irán juntando en islas mayores.

 

IP MÓVIL.

Los computadores móviles, tales como portátiles y computadores de mano, se conectan a Internet en diferentes localizaciones según se mueven. El simple acceso a servicios no hace imprescindible que un computador móvil retenga una única dirección, y puede adquirir una nueva dirección IP en cada lugar; éste es el propósito del Protocolo de Configuración Dinámica de Host, el cual hace posible que un computador recién conectado adquiera del servidor de nombres de dominio, DNS.

Si un computador móvil debe permanecer accesible a los clientes y aplicaciones de recursos compartidos, cuando se mueven entre redes locales y redes inalámbricas, debe conservar una dirección IP única, pero el encaminamiento correcto de paquetes hacia ellas depende de su localización en la red. La solución IP móvil es efectiva, pero escasamente eficiente.

 

TCP y UDP.

Uso de puertos. TCP y UDP, como protocolos de transporte, deben proporcionar comunicación proceso a proceso. Esto es llevado a cabo utilizando los puertos. Los números de puertos se utilizan para dirigir los mensajes hacia los procesos desplegados en un computador, y sólo son válidos para ese computador. Un número de puerto es un entero de 16 bits. Una vez que un paquete IP ha sido entregado en el host destino, la capa TCP-UDP los despacha hacia el proceso indicado en el número de puerto.

Características de TCP. TCP proporciona un servicio de transporte mucho más sofisticado. Proporciona entrega fiable de secuencias de bytes grandes por vía de la abstracción de la programación basada en streams.

La capa TCP incluye mecanismos para cumplir con el compromiso de fiabilidad. Éstos son:

Secuenciación: el proceso emisor TCP divide los flujos en una secuencia de segmentos de datos que se transmiten como paquetes IP. A cada segmento TCP se le asocia un número de secuencia. Proporciona el número de byte correspondiente al primer byte del segmento dentro del stream. El receptor utiliza los números de secuencia para ordenar los segmentos recibidos antes de colocarlos en el stream se entrada del proceso receptor. No puede colocarse ningún segmento en el flujo de entrada hasta que todos los segmentos con números de secuencia inferiores hayan sido recibidos y colocados en el stream, se modo que los segmentos que lleguen desordenados debe reposar en un búfer hasta que lleguen sus predecesores.

Control del flujo. El emisor tiene cuidado de no saturar el receptor o a los nodos intermedio. Esto se consigue con un sistema de acuses de recibo por segmento. Siempre que el receptor envía al emisor un reconocimiento indicando el número de secuencia mayor de los recibidos junto con un tamaño de ventana. Si existe un flujo de datos inverso, los reconocimientos se incluyen en los segmentos de datos normales, en otro caso se transmiten como segmentos de reconocimiento. El campo de tamaño de ventana en el segmento de reconocimiento indica la cantidad de datos que el emisor tiene permiso para enviar antes del siguiente reconocimiento.

Retransmisión: el emisor registra los números de secuencia de los segmentos que envía. Cuando recibe un reconocimiento asume que los segmentos aludidos han sido recibidos satisfactoriamente, por lo que pueden ser borrados de los búferes de salida. Cualquier segmento que no haya sido reconocido en un tiempo límite fijado, será retransmitido por el emisor.

Almacenamiento: el búfer de entrada en el receptor se utiliza para equilibrar el flujo entre el emisor y el receptor. Si el proceso receptor genera operaciones recibe más despacio que el emisor genera operaciones envía, la cantidad de datos en el búfer puede crecer. La información normalmente se extraerá del búfer antes de que éste se llene, aunque al final el búfer puede desbordarse y los segmentos entrantes serán desechados, sin registrarse su llegada. Por lo tanto, su llegada no será reconocida y el emisor se verá obligado a retransmitirlos de nuevo.

 

NOMBRES DE DOMINIO

Internet soporta un esquema que utiliza nombres simbólicos tanto para referirse a hosts como a redes, las entidades nombradas se llamandominios y los nombres simbólicos que reciben se llaman nombres de dominio. Los dominios están organizados en una jerarquía que pretende reflejar su estructura organizativa.

 

CORTAFUEGOS

El propósito de un cortafuego es supervisar y controlar todas las comunicaciones entrantes y salientes de una Intranet.

Los objetivos de la política de seguridad de un cortafuegos incluyen todos o algunos de los enumerados a continuación:

Control de servicios: para determinar qué servicios en los hosts internos son accesibles desde el exterior y par rechazar cualquier otra petición de servicio.

Control del comportamiento: para prevenir comportamientos que infrinjan las políticas de la organización, sean antisociales o no tengan un propósito legítimo y, por lo tanto, sean sospechosos de formar parte de un ataque.

Control de usuarios. La organización puede querer distinguir entre sus usuarios, permitiéndoles algún acceso a servicios exteriores pero inhibiendo a otros hacer lo mismo.

 

La políticas tiene que expresarse en términos de operaciones de filtrado que se llevarán a cabo por los procesos de filtrado que operan en varios niveles diferentes:

Filtrado de paquetes IP. Éste es un proceso de filtrado que examina los paquetes IP individualmente. Puede tomar decisiones basándose en las direcciones origen y destino.

Por razones de prestaciones, el filtrado IP se lleva a cabo por un proceso dentro del núcleo del sistema operativo del router.

Pasarela TCP: Comprueba todas las peticiones de conexión TCP y las transmisiones de segmentos. Cuando se ha instalado una pasarela, se pueden controlar todos los establecimientos de conexiones TCP y los segmentos TCP pueden ser analizados par comprobar su corrección.

Pasarela del nivel de aplicación. Una pasarela del nivel de aplicación actual como un proxy para un proceso de aplicación. La pasarela TCP arranca el proceso denominado proxy Telnet al que redirige la conexión TCP original. Si el proxy aprueba la operación Telnet establece otra conexión con el host solicitado y a partir de ese instante retransmite todos los paquetes TCP en ambas direcciones.

 

La seguridad puede mejorarse empleando dos router filtros en serie, con el bastón y los servidores públicos colocados en una subred separada que enlaza los dos router/filtros.

Esta configuración tiene varias ventajas respecto a la seguridad:

  • Si la política del bastón es estricta, las direcciones IP de los host en la Intranet no tienen por qué conocerse desde el mundo exterior, y las direcciones exteriores tampoco necesitan ser conocidas por los nodos interiores, ya que todas las comunicaciones externas pasan a través de los proxies del bastón, que tienen acceso a ambas.
  • Si el primer router/filtro IP es atacdo a comprometido, el segundo, que es invisible desde fuera de la Intranet y, por lo tanto, menos vulnerable, sigue extrayendo y rechazando los paquetes IP indeseables.

 

REDES PRIVADAS VIRTUALES. Las redes privadas virtuales extienden el límite de protección del contrafuegos más allá de la Intranet local utilizando canales seguros protegidos criptográficamente en el nivel IP.

 

 

Casos de Estudio: Ethernet, Lan Inalámbricas y ATM

 

En los primeros años ochenta, el instituto norteamericano de ingenieros eléctricos y electrónicos (US  Institute of Electrical and Electronics Engineeres, IEEE), creó un comité para especificar

una serie de estándares de red local (el comité 802 [IEEE 1990)) y sus subcomités han producido una serie de especificaciones que se han convertido en la clave de los estándares de LAN. En la mayoría de los casos, los estándares se basan estándares industriales previos que habían surgido de las investigaciones realizadas en los años setenta. Ellos difieren en prestaciones, eficiencia, fiabilidad y costo, pero todos proporcionan un ancho de banda relativamente grande sobre distancias cortas y medias.  El estándar IEEE 802.3 Ethernet ha ganado de largo la batalla en el mercado de LAN cableadas, y el estándar IEEE 802.5 de Anillo con Paso de Testigo (Token Ring) resulto un competidor significativo en gran parte de los años noventa, ofreciendo ventajas sobre Ethernet en eficiencias y garantías de ancho de banda, pero ahora ha desaparecido del mercado.

El estándar IEEE 802.4 de Bus con Paso de Testigo (Token Bus) fue desarrollados para entornos industriales con requisitos de tiempo real y todavía  se emplea en esos entornos.  El estándar IEEE 802.6 de área metropolitana cubre distancias de hasta 50 Km. y está pensado para usarse  en redes que abarquen  ciudades pequeñas y grandes.

El estándar IEEE 802.11 de LAN Inalámbrica surgió algo tarde pero ahora ocupa una posición significativa en el mercado con el productos de Lucent (WaveLan) y otros vendedores, y se va ha convertir en el más importante de todos con el advenimiento  de los dispositivos de computo ubicuos y móviles.  Este está diseñado para soportar comunicaciones a velocidades de hasta 11 Mbps sobre distancias de hasta 150 metros entre dispositivos equipados con transmisores / receptores inalámbricos simples.

La tecnología ATM surgió de un gran esfuerzo de estandarización de industrias de telecomunicaciones e informática en el final de los años ochenta y principio de los años noventa (CCITT 1990).  Su propósito es proporcionar una tecnología digital de redes de área amplia con un gran ancho de banda adecuada para aplicaciones de telefonía, datos y multimedia (audio y vídeo de alta calidad). Aunque el despegue ha sido más lento de lo esperado, ATM es ahora la tecnología para las redes de área amplia de muy alta velocidad.

 

ETHERNET

Ethernet fue desarrollada por el centro de investigación Palo Alto de Xerox en 1973 (Metcalfe y Boggs 1976; Soc. y otros en 1982; 1985)como parte del programa de investigación llevado a cabo sobre estaciones de trabajo personales y sistemas distribuidos.  La red Ethernet piloto fue la primera red de área local de alta velocidad, demostrando la factibilidad y utilidad de las redes locales de alta velocidad para enlazar computadores en un mismo lugar, permitiéndoles comunicarse a altas velocidades de transmisión con bajas tasas de error y sin retardos de conmutación.  Los sistemas Ethernet están disponibles ahora con anchos de banda en el rango 10 Mbps a 1.000 Mbps.  Muchas redes propietarias han sido implementadas utilizando el mismo método básico de operación con características de costo/prestaciones adecuadas para una variedad de aplicaciones.

Describiremos los principios de funcionamiento de Ethernet 10 Mbps especificados en el estándar IEEE 802.3 [IEEE 1985a]. Ésta fue la primera tecnología de red de área local ampliamente extendida, y probablemente hoy, todavía la tecnología predominante.

Una red de Ethernet es una línea de conexión en bus simple o ramificado que utiliza un medio de transmisión consistente en uno o más segmentos contiguos de cable enlazados por concentradores o repetidores.  Los concentradores y los repetidores son dispositivos sencillos que enlazan trozos de cable, posibilitando que las señales pasen a través suyo.  Se pueden enlazar varias Ethernet en el nivel de protocolo de red Ethernet por conmutadores o puentes Ethernet.  Los conmutadores y los puentes funcionan al mismo nivel que los marcos Ethernet, encaminándolos a las redes Ethernet adyacentes cuando su destino está allí. Las redes Ethernet enlazadas aparecen como una única red para los protocolos de las capas superiores, tales como IP (las subredes IP 138.37.88 y 138.37.94 se componen cada una de varias redes Ethernet enlazadas por elementos marcados como Eswitch).  En concreto, el protocolo ARP es capaz de hacer corresponder direcciones IP con direcciones Ethernet sobre un conjunto de redes Ethernet enlazadas; cada solicitud ARP se difunde a todas las redes enlazadas dentro de la subred.

Los modos de funcionamiento de las redes Ethernet son definidos por la frase acceso múltiple sensible a la portadora,  con detección de colisiones (carrier sensing, múltiple accesss with collision detection, CSMA/CD) y pertenecen a la clase de redes de contienda en bus. Los métodos de contienda utilizan un medio de transmisión único para enlazar todos los hosts.  El protocolo que gestiona el acceso al medio se llama protocolo de control de acceso al medio (médium access control, MAC). Dado que un único enlace conecta todos los hosts, el protocolo MAC combina en una única capa las funciones de un protocolo de enlace de datos (responsable de la transmisión de paquetes sobre los enlaces de comunicación) y de un protocolo de red (responsable de la entrega de los paquetes a los hosts).

Difusión de paquetes.  El método de comunicación en las redes CSMA/CD es difundir paquetes de datos en el medio de transmisión. Todas las estaciones están escuchando continuamente el medio en busca de paquetes dirigidos a ellas.  Cualquier estación que desee transmitir un mensaje difundirá por el medio uno o más paquetes (llamados marcos en la especificación Ethernet). Cada paquete contiene la dirección de la estación destino, la dirección de la estación emisora y una secuencia variable de bits que representa el mensaje que está siendo transmitido. La transmisión de datos se efectúa a 10 Mbps.

La MTU (unidad máxima de trasferencia) está fijada en 1.518 bites por el estándar IEEE, aunque no existe razón técnica alguna para fijar unlímite, excepto la necesidad de limitar los retardos causados por la contienda.

La dirección de la estación destino normalmente se refiere a una interfaz de red única. El controlador del hardware en cada estación recibe una copia de todos los paquetes. Compara la dirección destino en cada paquete con la dirección local grabada físicamente, ignorando los paquetes dirigidos a otras estaciones y pasando aquellas cuya dirección destino coincida con la dirección local. Las direcciones ordinarias se distinguen de las difusión y multidifusión  por el bit de mayor orden (0 y 1, respectivamente). Cualquier estación que reciba un paquete con la dirección de difusión la pasará hacia su host local. Una dirección de multidifusión especifica una forma limitada  difusión que será recibida por un grupo de estaciones cuyas interfaces de red han sido configuradas para recibir paquetes con esa dirección de multidifusión. No todas las implementaciones de interfaces de red Ethernet pueden reconocer direcciones de multidifusión.

El protocolo de red Ethernet (que es responsable de la transmisión de paquetes Ethernet entre pares de hosts) está implementado en el hardware de la interfaz Ethernet; se requiere de un protocolo software para la capa de transporte y para las que están por encima de ella.

Esquema de paquete Ethernet. Los paquetes (o más correctamente, marcos) transmitidos por las estaciones en Ethernet tienen la siguiente estructura: Además de las direcciones de origen y de destino ya mencionadas, los marcos incluyen un prefijo de 8 bites fijo, un campo de longitud, un campo de datos y uno de suma de comprobación. El prefijo se utiliza para la sincronización del hardware y consiste en un preámbulo de 7 bites, cada uno conteniendo el patrón de bits 10101010 seguido de un único byte de arranque (S en el diagrama) con el patrón 10101011.

A pesar de que la especificación no permite que convivan más de 1.024 estaciones en una única Ethernet, las direcciones ocupan seis bytes, proporcionando 2.exp 48 diferentes direcciones.

El campo de datos contiene el mensaje que está siendo transmitido o parte de él (sí la longitud del mismo excede de los 1.500 bytes). El límite inferior de 46 bites en el campo de datos asegura una longitud de paquete mínima de 64 bites, la cual es necesaria para garantizar que las colisiones serán detectadas en toda las estaciones de la red.

La secuencia de comprobación del marco es una suma de comprobación que genera                                                                           e inserta el emisor y que sirve para validar los paquetes en el receptor. Los paquetes que producen sumas de comprobación incorrectas son simplemente desechados por la capa de enlace de datos en la estación receptora. La incidencia de la corrupción de los datos en las redes locales es tan pequeña que el uso de este método de recuperación cuando se requiere garantía en la entrega es enteramente satisfactorio y hace posible que se pueda utilizar un protocolo de transporte menos costoso como UDP cuando no., se necesite garantizar la entrega.

 

Colisiones de paquetes. Existe una probabilidad finita de que dos estaciones en la red estén intentando transmitir mensajes de forma simultánea. Si una estación intenta transmitir un paquete sin comprobar que el medio está siendo utilizado por otra estación, puede ocurrir una colisión.

Ethernet tiene tres mecanismos para tratar esta posibilidad. El primero es llamando detección de portadora; la interfaz hardware en cada estación escucha buscando la presencia de una señal en el medio (conocida como portadora por analogía con la difusión de señales de radio). Cuando una estación desea transmitir un paquete, espera hasta que no se detecte señal alguna en el medio y entonces comienza a transmitir.

La detección de la portadora no previene todas las colisiones. Queda la posibilidad de que se produzca una colisión debido al tiempo tinito t que tarda una señal insertada en el medio de transmisión en un punto, en alcanzar todos los demás puntos (la velocidad de transmisión electrónica es aproximadamente 2 x 10.8 metros por segundo).

La técnica utilizada para reponerse de tales interferencias se llama detección de colisiones. Siempre que una estación está transmitiendo un paquete a través de su puerto de salida hardware, también escucha en su puerto de entrada y compara las dos señales. Si difieren, entonces es que se ha producido una colisión. Cuando esto sucede la estación deja de transmitir y produce una señal de interferencia para asegurarse de que todas las estaciones reconocen la colisión. Si dos estaciones transmiten aproximadamente de forma simultánea desde los extremos de la red, no se darán cuenta de que se ha producido una colisión durante 2 t segundos (ya que el primer emisor debe estar transmitiendo aun cuando reciba la segunda señal). Si los paquetes que transmiten tardan menos de t en ser difundidos, la colisión no será detectada, ya que cada estación emisora no verá el otro paquete hasta que ha terminado de transmitir el propio, mientras que las estaciones en los puntos intermedios recibirán ambos paquetes simultáneamente, produciendo una corrupción de los datos.

 

Después de la señal de interferencia, todas las estaciones que están transmitiendo y escuchando cancelan la transmisión del paquete actual. Entonces, las estaciones transmisoras tendrán que  intentar transmitir otra vez sus paquetes. Y es ahora cuando aparece una nueva dificultad. Si las estaciones involucradas en la colisión intentan retransmitir sus paquetes inmediatamente después señal de interferencia, con toda probabilidad se producirá otra colisión. Para evitar esto se utiliza una técnica llamada marcha atrás (back-off). Cada una de las estaciones envueltas en una colisión esperará un tiempo nt antes de intentar la retransmisión. El valor de n es un entero aleatorio elegido independientemente por cada estación y limitado por una constante L definida en el software de red. Si a pesar de esto se produce otra colisión, se duplica el valor de L y el proceso se repite si es necesario hasta 10 veces.

La interfaz hardware en la estación receptora calcula la secuencia de comprensión y la compara con la suma de comprobación transmitida en el paquete. Utilizando todas estas técnicas, las estaciones conectadas a Ethernet son capaces de gestionar el uso del medio de transmisión sin ningún control centralizado o sincronización.

Eficiencia de Ethernet.  La eficiencia de una red Ethernet es la relación entre el número de paquetes transmitidos satisfactoriamente y el número máximo teórico de paquetes que podrían haber sido transmitidos sin colisiones. Ethernet puede conseguir una utilización del canal de entre el 80 y el 95 %, aunque los retardos debidos a la contienda se hacen notar cuando se supera una utilización del 50 %. Dado que la carga es variable, es imposible garantizar la entrega de un mensaje dado dentro de un tiempo fijo, ya que la red puede estar completamente cargada cuando el mensaje esté listo para ser transmitido. Pero la probabilidad de transferir el mensaje con un retardo dado es tan buena, o mejor que con otras tecnologías de red.

Muchas redes se utilizan principalmente para interacciones asíncronas cliente-servidor, y la mayoría del tiempo éstas trabajan sin estaciones esperando a transmitir. Las redes que soportan un gran volumen de acceso a datos desde un gran número de usuarios muestran una mayor carga, y aquellas que transmiten caudales multimedia tienen tendencia a ser desbordadas en cuanto se transmiten unos pocos caudales concurrentemente

lmplernentaciones físicas. Se pueden encontrar un amplio rango de implementaciones físicas sobre la base de Ethernet que ofrecen distintas prestaciones y relaciones calidad / precio explotando las crecientes prestaciones de hardware. Las variaciones se pueden dar en los diferentes medios de transmisión: cable coaxial, par trenzado (similar al utilizado en telefonía) y fibra óptica. con límites diferentes en el rango de transmisión. y en el uso de velocidades de señal cada vez mayores, obteniendo anchos de banda mayores y, Generalmente, y generalmente menores rangos de transmisión. El IEEE ha adoptado varios estándares para las implementaciones de la capa física, y utiliza un esquema de denominación para distinguir entre ellos.

 

 

Palabras claves
publicado por aprendis a las 20:39 · Sin comentarios  ·  Recomendar
 
Comentarios (0) ·  Enviar comentario
Enviar comentario

Nombre:

E-Mail (no será publicado):

Sitio Web (opcional):

Recordar mis datos.
Escriba el código que visualiza en la imagen Escriba el código [Regenerar]:
Formato de texto permitido: <b>Negrita</b>, <i>Cursiva</i>, <u>Subrayado</u>,
<li>· Lista</li>
Sobre mí
FOTO

Erik Martinez



» Ver perfil

img  Calendario
Ver mes anterior Abril 2024 Ver mes siguiente
DOLUMAMIJUVISA
123456
78910111213
14151617181920
21222324252627
282930
img  Buscador
Blog   Web
img  Tópicos
» General (1)
img  Nube de tags  [?]
img  Secciones
» Inicio
img  Enlaces
FULLServices Network | Blog gratis | Privacidad