jueves, 15 de julio de 2021

Virtualización de la red

Cisco Network Academy
Publicado el 15 de Julio del 2021

La virtualización de la red y los servicios en la nube permiten que una empresa tenga sus servicios en la nube, como su centro de datos, su sistema de almacenamiento y otros servicios. Por otro lado, los proveedores confían en la virtualización para prestar servicios de computación en la nube (SaaS, PaaS, IasS e ITaaS)

La virtualización separa el sistema operativo (SO) del hardware, de esta manera los proveedores proveen servidores de manera dinámica a sus clientes. 

Por ejemplo, Amazon Web Services (AWS) proporciona una forma sencilla para que los clientes obtengan dinámicamente los recursos informáticos que necesitan. Estas instancias virtualizadas de los servidores se crean a pedido. Como se muestra en la figura, desde AWS Management Console, se puede implementar máquinas virtuales, aplicaciones web, servidores virtuales entre otros.


La virtualización de servidores saca provecho de los recursos inactivos y establece el número de servidores que se requieren. 

La virtualización permite que múltiples sistemas operativos existan en una sola plataforma de hardware. Por ejemplo, ocho servidores dedicados se establecieron en dos servidores, usando hipervisores, para admitir varias instancias virtuales de los sistemas operativos.


El Hypervisor es un programa, un firmware o un hardware que agrega una capa de abstracción a la parte superior del hardware físico real. La capa de abstracción se utiliza para crear máquinas virtuales que tienen acceso a todo el hardware de la máquina física, como CPU, memoria, controladores de disco y NIC. Cada una de esas máquinas virtuales ejecuta un sistema operativo completo y separado. 

Una de las ventajas más importantes de la virtualización es un menor costo total, menos cantidad de equipos necesarios,  menor costo de mantenimiento, menor consumo de energía y menos espacio necesario.

Para ayudar a explicar cómo funciona la virtualización, es útil usar capas de abstracción en las arquitecturas informáticas. Un sistema de computación consta de las siguientes capas de abstracción: Servicios, OS, Firmware y Hardware.

El hipervisor se instala entre el firmware y el OS, este puede admitir varias instancias de SO, este es del tipo 1

El hipervisor, tipo 2, es un software que se instala en un sistema operativo y ejecuta instancias de VM, también se les llama hipervisores alojados. Los más comunes: Virtual PC, VMware Workstation, Oracle VM VirtualBox

La complejidad de la virtualización de redes
La virtualización del servidor oculta los recursos del servidor, como el número e identidad de servidores físicos, procesadores y sistemas operativos de los usuarios del servidor. Esta práctica puede crear problemas si el centro de datos está utilizando las arquitecturas de red tradicionales.

Por ejemplo, las VLANs utilizadas por las VM se deben asignar al mismo puerto de switch que el servidor físico que ejecuta el hipervisor. Sin embargo, las VM son trasladables, y el administrador de la red debe poder agregar, descartar y cambiar los recursos y los de la red. Este proceso sería manual y llevaría mucho tiempo con los switches de red tradicionales.

Otro problema es que los flujos de tráfico difieren considerablemente del modelo cliente-servidor tradicional. Normalmente, un centro de datos intercambia una cantidad considerable de tráfico entre servidores virtuales, como los servidores UCS que se muestran en la figura. Estos flujos se denominan tráfico Este-Oeste y pueden cambiar en ubicación e intensidad con el tiempo. El tráfico Norte-Sur se produce entre las capas de distribución y núcleo y suele ser tráfico destinado a ubicaciones fuera del sitio, como otro centro de datos, otros proveedores de nube o Internet.

El tráfico dinámico en constante cambio requiere un enfoque flexible para la administración de recursos de red y en empresas grandes que utilizan equipos de varios proveedores, cada vez que se activa una nueva VM, la reconfiguración necesaria puede llevar mucho tiempo.

La infraestructura de red también se debe virtualizar. ¿Cómo se virtualiza la red? La respuesta se encuentra en cómo funciona un dispositivo de red, utiliza un plano de datos y un plano de control.

Plano de control - Es el cerebro del dispositivo. Se utiliza para tomar decisiones de reenvío. El plano de control contiene los mecanismos de reenvío de ruta de capa 2 y capa 3, como las tablas de vecinos de protocolo de enrutamiento y las tablas de topología, las tablas de enrutamiento IPv4 e IPv6, STP, y la tabla ARP. La información que se envía al plano de control es procesada por la CPU.

Plano de datos - También conocido como plano de reenvío, este plano suele ser la estructura de switch que conecta lo varios puertos de red de un dispositivo. El plano de datos de cada dispositivo se utiliza para reenviar los flujos de tráfico. Los routers y los switches utilizan la información del plano de control para reenviar el tráfico entrante desde la interfaz de egreso correspondiente. La información en el plano de datos generalmente es procesada por un procesador especial del plano de datos sin que la CPU se involucre.

Cisco Express Forwarding (CEF) utiliza el plano de control y el plano de datos para procesar paquetes. CEF es una tecnología de conmutación de IP de capa 3 que permite que el reenvío de los paquetes ocurra en el plano de datos sin que se consulte el plano de control. En CEF, la tabla de enrutamiento del plano de control rellena previamente la tabla de base de información de reenvío (FIB) de CEF en el plano de datos. La tabla de ARP del plano de control se completa con la tabla de adyacencia. Luego el plano de datos reenvía directamente los paquetes en función de la información del FIB y la tabla de adyacencia, sin necesidad de consultar la información del plano de control.


SDN (Software Defined Networking) es básicamente la separación del plano de control y el plano de datos. La función del plano de control se elimina de cada dispositivo y se realiza mediante un controlador centralizado, como se muestra en la figura. El controlador centralizado comunica las funciones del plano de control a cada dispositivo. Cada dispositivo ahora puede enfocarse en el envío de datos mientras el controlador centralizado administra el flujo de datos, mejora la seguridad y proporciona otros servicios.


Plano de gestión o de administración: es responsable de administrar un dispositivo a través de su conexión a la red. Los administradores de red utilizan aplicaciones como SSH, HTTPS y SNMP para acceder al plano de administración y configurar un dispositivo. 


Muy pocas organizaciones tienen realmente el deseo o las habilidades para programar la red utilizando las herramientas de SDN. Sin embargo, la mayoría de las organizaciones desea automatizar la red. 

Cisco desarrolló la Infraestructura centrada en aplicaciones (ACI) para alcanzar de maneras más avanzada y más innovadora los enfoques de SDN.

Cisco ACI es una solución de hardware diseñada específicamente para integrar la computación en la nube con la administración de centros de datos. 

La arquitectura de ACI tiene tres componentes principales:
- Perfil de aplicación de red (ANP) - Es una colección de grupos de terminales (EPG) con sus conexiones y las políticas que definen dichas conexiones. Los EPG que se muestran en la figura, como VLAN, servicios web y aplicaciones, son solo ejemplos. 
- Controlador de infraestructura de política de aplicación (APIC) - Se considera el cerebro de la arquitectura de ACI. El APIC es un controlador centralizado de software que administra y opera una estructura agrupada ACI escalable. 
- Switches de la serie 9000 de Cisco Nexus - Estos switches proporcionan una estructura de switching con reconocimiento de aplicaciones y operan con un APIC para administrar la infraestructura virtual y física de la red.

La estructura Cisco ACI está compuesto por los switches APIC y Cisco Nexus de la serie 9000 que utilizan una topología de hoja espina de dos niveles. Los switches de hoja siempre se unen a las espinas, pero nunca se unen entre sí.

Los APIC de Cisco y todos los demás dispositivos de la red se conectan físicamente a los switches de hoja. El APIC centraliza la definición de la política y programa a los switches de hoja para reenviar el tráfico en función de las políticas definidas.