Hyper-V

Beneficios derivados de utilizar distintos hypervisores

En el actualidad, el 90% de las empresas de 100 empleados o más, han adoptado algún tipo de solución de virtualización. Pero en realidad, la mayoría ligeramente se ha beneficiado de todo el potencial que les puede aportar. Según un informe reciente de Gartner, la utilización de los servidores en los centros de datos es sólo del 18%, prácticamente el mismo porcentaje que hace cuatro años.

La virtualización no sólo permite ahorrar costes, también permite a las empresas obtener plataformas IT más ágiles, más fácilmente replicables y adaptables a las necesidades de los usuarios. Pero para que las empresas puedan obtener esos beneficios, deben superar desafíos como: el hecho de tener centros de datos más heterogéneos, falta de herramientas de gestión centralizadas, etc. Otra barrera al despliegue de la virtualización es utilizar  tecnología de un único fabricante de virtualización, lo cual puede producir ineficiencias o perde oportunidades de crecimiento por no desplegar la tecnología de hypervisor más adecuada a nuestra infraestructura.

Un modo de optimizar e incrementar el despliegue de la infraestructura de virtualización, es utilizar más de un hypervisor. Si somos capaces de centralizar la administración de múltiples hypervisores podemos obtener beneficios en lo que se refiere a reducción de costes de licencias, evita que dependamos de un único fabricante, incrementa el nivel de consolidación, facilita la construcción de una solución cloud o permite una integración más eficiente de todas nuestras aplicaciones. Para ello es fundamental disponer de una infraestructura de gestión que soporte soluciones de virtualización y de hardware heterogéneas. De este modo seremos capaces de manejar nuestra infraestructura de virtualización desde una única plataforma.

Share

Comparativa de soluciones IaaS para crear tu propia nube

En el día de hoy vamos a hacer una comparativa entre distintas soluciones software de Infraestructura como Servicio (IaaS) que permiten crea nubes privadas. Principalmente compararemos la estrategia del fabricante en relación a sus productos, innovación e interoperabilidad.

Los fabricantes de soluciones IaaS que vamos a comparar son: VMware, Microsoft, HP y CloudSwitch.

VMware vCloud

VMware es el principal fabricante del mercado de virtualización y posiblemente tiene el portfolio de productos más amplio del mercado. Su estrategia cloud es ser el principal fabricante que provea componentes de infraestructura y gestión para implementar nubes privadas y públicas.

Actualmente VMware está llegando a acuerdos con otras compañías con el objetivo de aumentar su oferta de nubes híbridas que puedan conectarse con nubes privadas o públicas. El desarrollo de la vCloud API es un componente fundamental en su estrategia de construcción de nubes híbridas.

Productos de cloud privada

Tanto vSphere ESXi como vMotion son líderes en el mercado de hypervisores y herramientas de migración de máquinas virtuales respectivamente. Su producto vCloud Director es el núcleo de su solución de infraestructuras cloud y se ejecuta una capa por encima de vSphere, pudiéndose integrar con tu vCenter.

Gracias a vCloud Connector es posible construir clouds híbridas seguras y que permiten la portabilidad de aplicaciones. Partners de VMware, como Terremark están construyendo cloud públicas que pueden interaccionar con clouds privadas que utilicen productos VMware.

Innovación

VMware es reconocida como la empresa más innovadora en tecnologías de virtualización y cloud. Productos avanzados como vMotion o vShield les diferencian de la competencia.

Interoperabilidad

A pesar de ser líderes en innovación, los productos VMware no interaccionan bien con otros productos. Por lo tanto, aquellos que utilizen exclusivamente productos de VMware para construir su nube pueden encontrar dificultades a la hora de migrar a otras soluciones en el futuro.

Microsoft Hyper-V Cloud

Más del 70% de los servidores que actualmente están en funcionamiento en el mundo utilizan como sistema operativo alguna versión de Windows Server. Esta base de usuarios es el objetivo de Microsoft en su oferta de productos cloud.

La estrategia cloud de Microsoft involucra a dos tipos de productos con escasa interoperabilidad entre ambos:

  • Windows Server 2008 Hyper-V y System Center para construir nubes privadas.
  • Plataforma PaaS Windows Azure.

Productos de cloud privada

Hyper-V más System Center Virtual Machine Manager 2008 R2 es la entrada de Microsoft en el mercado de software para crear nubes privadas. Estos productos están por detrás de VMware en lo que respecta a seguridad, networking y almacenamiento.

Otra debilidad perceptible es que Hyper-V depende de Windows Server 2008 R2 para construir nubes privadas y publicas.

Innovación

La posibilidad de Microsoft para ofrecer nuevos productos al mercado está ligado a los ciclos de liberación de nuevas versiones de Windows Server y System Center. Por lo tanto se limita la posibilidad de innovar en el espacio cloud.

Interoperabilidad

Aunque parezca mentira, la interoperabilidad entre el producto cloud y Windows Azure es inexistente. Sólo existe portabilidad desde la plataforma cloud a Windows Azure, no en sentido contrario. Tampoco existen capacidades de gestión y aprovisionamiento entre nubes privadas y públicas.

HP CloudSystem

El software para construir nubes de HP está basado en OpenStack, una iniciativa open source para crear y gestionar nubes. No está claro que los clientes de HP estén de acuerdo con esa estrategia al basarse en un proyecto open source con soporte de terceros. Es un hecho que la credibilidad de HP en el negocio del cloud computing es baja ya que se introdujo tarde y todavía está intentando crear una estrategia cloud de relevancia.

Productos de cloud privada

Dentro de la estrategia cloud de HP podemos encontrar tres productos: CloudSystem, Cloud services automation y Cloud consulting services.

Los servicios de nube pública de HP son similares a los de Amazon EC2, suministrando una arquitectura de nubes privadas y públicas, así como servicios de outsourcing.

Con Cloud Consulting Services, HP pretende utilizar la experiencia de EDS en la gestión de infraestructuras y consultoría en la nube.

Innovación

HP no es, ni ha sido, un fabricante innovador en el sector del cloud computing.

Interoperabilidad

La oferta actual de HP no se centra en la interoperabilidad con otras plataformas cloud.

CloudSwitch

CloudSwitch es una pequeña compañía recientemente comprada por Verizon e integrada con Terremark. Se centra en una serie de productos que permiten la portabilidad entre nubes y con una administración sencilla. Su estrategia se basa en una visión global que permita mover cargas de trabajo entre plataformas cloud que utilicen tecnologías distintas.

Productos de cloud privada

CloudSwitch permite ejecutar aplicaciones en una nube y moverlas entre nubes de manera segura sin tener que reconfigurar aplicaciones o cambiar las herramientas o políticas de gestión.

Innovación

Una de la principales tendencias en el mercado del cloud computing es la necesidad de interoperabilidad entre nubes de manera simple y segura. La estrategia de CloudSwitch se centra en esta tendencia.

Interoperabilidad

CloudSwitch está altamente focalizado en la interoperabilidad entre nubes. Soporta múltiples tecnologías de hypervisor (ESXi o Xen) y servicios cloud (TerreMark, Amazon Public Clouds, Eucalyptus). Se prevé que en 2012 añada soporte para más proveedores de cloud computing.

Conclusiones

Cuando se elige un proveedor cloud , debes estar seguro que estás escogiendo un fabricante con una estrategia cloud clara, productos sólidos que se ajusten a tus necesidades y que no supongan un gran desembolso. También es fundamental buscar fabricantes que ofrezcan productos innovadores que interactúen con plataformas cloud de otros fabricantes.

Otro aspecto a considerar es que el fabricante escogido no te haga encontrar dificultades a la hora de migrar a otras soluciones en el futuro.

Share

Como integrar tácticas de Alta Disponibilidad en infraestructuras virtuales

La virtualización de servidores permite a las empresas reducir el número de servidores físicos, en ocasiones en un ratio de 20 a 1. Cada Host físico es capaz de ejecutar múltiples cargas de trabajo en producción. Por lo tanto, en un entorno de virtualización somos muy dependientes de la disponibilidad de los Host sobre los que se ejecutan nuestras máquinas virtuales.

Dependiendo del tipo de empresa, es probable que necesiten que sus aplicaciones estén funcionando continuamente. Con el objetivo de garantizar una alta disponibilidad a nuestra aplicaciones, podemos utilizar una combinación de técnicas. Actualmente existen principalmente cuatro técnicas de hacer que las aplicaciones ejecutándose en nuestras máquinas virtuales estén siempre disponibles:

  • Clusters de Host físicos.
  • Clusters Guest Failover.
  • Clusters Network Load Balancing (NLB).
  • Máquinas virtuales tolerantes a fallos.

Cada una de estas opciones puede dar a nuestras máquinas virtuales un nivel específico de disponibilidad. La importancia de que una determinada aplicación esté siempre funcionando marcará el método a escoger.

Utilizar una configuración en cluster de alta disponibilidad (HA) nos permite poder tratar potenciales incidencias en nuestro entorno:

Protegemos el sistema de fallos en los Hosts físicos: en la mayoría de los sistemas de alta disponibilidad, cuando un Host falla las máquinas virtuales que ejecuta son migradas a otros Hosts (incurriendo en pérdida de servicio durante el reinicio de la máquina virtual); o las aplicaciones que se ejecutan dentro de una máquina virtual son movidas a otras máquinas virtuales (resultando en una menor pérdida de servicio). También nos podemos proteger contra pérdidas de servicio utilizando técnicas como la tolerancia a fallos. Por ejemplo VMware tiene el producto VMware Fault Tolerance que nos permite tener una máquina virtual imagen protegiéndonos frente a corrupción de datos y pérdidas de servicio.

Podemos seguir ejecutando aplicaciones durante períodos de mantenimiento de los Host físicos: las máquinas virtuales serán migradas a los otros Hosts disponibles en el cluster evitando pérdidas de servicio.

Dinámicamente podemos mover las cargas de trabajo de una máquina a otra: nos aseguramos de que las aplicaciones se ejecutan con un rendimiento óptimo.

¿Qué estrategia HA es mejor?

La importancia de la aplicación para la empresa determinará qué método deberemos utilizar. Como mínimo deberemos configurar un cluster HA entre los Host físicos.

 

Un cluster HA nos permitirá obtener dos niveles de continuidad de servicio:

  • Ejecución no-continua de máquinas virtuales. Si un Host falla, todas las máquinas que está ejecutando serán transferidas a otros hosts reiniciándose automáticamente.
  • Ejecución continua de máquinas virtuales durante operaciones de mantenimiento. Podemos transferir las máquinas a otros hosts disponibles sin pérdida de servicio.

Single-Site y Multi-Site Clusters

Los clusters single-site se basan en la utilización de almacenamiento compartido. Por ejemplo, VMware utiliza dos tecnologías para construir un cluster de alta disponibilidad: HA y su sistema de ficheros VMFS (sistema de ficheros que permite a múltiples hosts físicos conectarse al mismo contenedor de almacenamiento). VMFS requiere un sistema de almacenamiento SAN (iSCSI o Fiber Channel) o NFS. Los clusters VMware pueden soportar hasta 32 nodos.

Los sistemas Citrix también utilizan un sistema de almacenamiento compartido y pools de recursos. A diferencia de otros sistemas que se basan en un sistema de base de datos para gestionar la alta disponibilidad, cada Host Citrix XenServer almacena su propia copia de la configuración de pool de recursos. De este modo se elimina un potencial punto de fallo. Al igual que VMware, los clusters Citrix soportan hasta 32 nodos.

Por último, Microsoft Hyper-V utiliza la tecnología Windows Server 2008 Failover Clustering para crear clusters HA. Los cluster Hyper-V single-site requieren un sistema de almacenamiento compartido y soportan hasta 16 nodos. Hyper-V también soporta clusters multi-site que abarcan más de una localización física. De este modo podemos hacer frente a desastres que afecten a uno de nuestros centros de datos. Para dar soporte a clusters multi-site, Hyper-V soporta tecnologías DAS (no requiere almacenamiento compartido) que deben ser sincronizadas mediante herramientas de replicación.

En todos estos sistemas, cuando un cluster detecta que un nodo falla de manera completa, el servicio de cluster mueve las máquinas virtuales a otros nodos disponibles. A diferencia de una migración en vivo entre nodos, este proceso de migración reinicia la máquina virtual en el nuevo nodo, incurriendo en una pérdida de servicio.

Hay que recordar que se deben tener recursos disponibles en cada Host físico del cluster para soportar el movimiento de máquinas virtuales. Por ejemplo, VMware muestra un mensaje de error si los recursos disponibles no son suficientes.

Clusters tolerantes a fallos

Como hemos comentado, un cluster a nivel de Host no incluye a las aplicaciones que se están ejecutando en las máquinas virtuales. Por lo tanto, no se asegura que la aplicación se ejecute en caso de que un Host falle.

Algunas aplicaciones como Microsoft Exchange no se comportan adecuadamente bajo este modelo y pueden incurrir en pérdidas de datos cuando tiene lugar una transferencia entre Hosts. Para este tipo de aplicaciones tenemos que pensar en construir clusters de alta disponibilidad a nivel de máquina virtual. De este modo aseguraremos la disponibilidad y estabilidad de nuestras aplicaciones en caso de fallo físico o de aplicación.

Estos clusters tolerantes a fallos trabajan sólo para cargas de trabajo stateful. Para cargas de trabajo stateless tendremos que utilizar clusters NLB, también soportado a nivel de capa de máquina virtual.

Para construir este tipo de soluciones, tendremos que preparar complejas configuraciones a nivel de máquina virtual (ver imagen inferior un ejemplo). A diferencia de otros fabricantes, VMware dispone del producto Fault Tolerance. Gracias a este producto creamos imágenes en vivo de máquinas virtuales que se sincronizan continuamente permitiéndonos obtener de manera sencilla alta disponibilidad a todos los niveles.

Share

2011: un año de avances en virtualización

La virtualización no es una tecnología nueva.  Durante los últimos años las empresas han confiando en la virtualización con el objetivo de consolidar sus servidores y reducir los gastos relativos a sus centros de datos. Sin embargo son pocas las empresas que aprovechan todo el potencial de esta tecnología.

A la hora de implementar un proyecto de virtualización, las empresas siempre han estado preocupadas de factores como el rendimiento, la seguridad o compatiblidad de aplicaciones antiguas. Sin embargo, durante el último año han surgido nuevos avances en tecnologías de virtualización que ayudarán a los administradores a la hora de crear entornos e infraestructuras ágiles, flexibles y con un alto rendimiento.

Avances en virtualización

Los principales avances para entornos de virtualización durante el año 2011 han sido:

  • Nuevos procesadores.
  • Copias de seguridad.
  • Herramientas de seguridad.
  • Balanceo de carga.
  • Virtualización de almacenamiento.
  • Clouds privadas.

Procesadores y Fiabilidad

Los ratios de consolidación dependen en gran medida de la tecnología de los procesadores disponibles. Los nuevos procesadores están diseñados para entornos de virtualización. Por ejemplo, la serie 5600 de Intel permite obtener ratios de consolidación 15 a 1, aumentar por 15 el rendimiento y, por lo tanto, reducir el consumo de energía y necesidades de refrigeración.

Por otro lado, la fiabilidad es asegurada a través de componentes redundantes y reemplazables “en caliente”.

 

Copias de seguridad

Conforme las máquinas virtuales reemplazan a los servidores tradicionales, los administradores deben proteger un número mayor de máquinas virtuales que permita mantener la disponibilidad y minimizar el tiempo de recuperación.

Nuevas herramientas en el mercado permite realizar copias de seguridad a nivel de bloque o fichero de sistema mientras los servidores están ejecutándose. Por ejemplo Veeam Backup o vStorage de VMware.

 

Herramientas de Seguridad

Muchas empresas están preocupadas sobre la seguridad en entornos virtualizados.  Fabricantes como VMware o Microsoft han desarrollado plugins que permiten aumentar la seguridad y protección de los servidores virtuales.

Inspección de paquetes y control de las conexiones son algunas de las funcionalidades de estos plugins.

 

Balanceo de carga

En entornos virtualizados, las máquinas virtuales son capaces de migrar de un servidor físico a otro. De este modo se aprovecha toda la capacidad de procesamiento disponible, incrementando así el rendimiento global.

La principal ventaja de este tipo de soluciones son el balanceo de carga automático según la aplicación incrementa o disminuye su carga de trabajo. Conforme ganamos en automatización respecto a balanceo de carga, menos tareas de administración deben realizar los empleados IT. De este modo se mejora su productividad.

 

Virtualización de almacenamiento

El almacenamiento es un cuello de botella común en entornos de virtualización. La virtualización del almacenamiento permite aumenta en flexibilidad y capacidad de utilización de nuestros recursos de almacenamiento.

El almacenamiento virtual utiliza de manera más eficiente las capacidades de E/S de cada dispositivo de almacenamiento físico. Por lo tanto, podemos consolidar el almacenamiento reduciendo la sobrecarga de trabajo en el departamento IT ya que reducimos los componentes a administrar.

 

Clouds privadas

Muchas empresas han comenzado a utilizar servicios de proveedores cloud externos. La principal razón de adoptar estos servicios son la reducción de costes, pero por otro lado la principal barrera son los riesgos asociados: pérdida de control sobre la seguridad, rendimiento, fiabilidad, regulaciones, etc.

Las empresas que ya han invertido en virtualización, están bien posicionadas para construir su propia nube privada. De este modo, los departamentos IT pasan a ser proveedores internos cloud.

Las principales ventajas con el rápido aprovisionamiento, mejora en el control, soporte para usuarios móviles, etc.

Conclusiones

La virtualización es una tecnología que está madurando rápidamente. Gartner predice que en 2012, el 50% de la carga de trabajo será realizada por servidores virtualizados. Además debemos tener en cuenta que los fabricantes están continuamente añadiendo funcionalidades que mejoran el rendimiento, la seguridad y eficiencia de las infraestructuras de virtualización.

Conforme la virtualiación es más utilizada por las empresas, los administradores IT puede continuar mejorando la agilidad y rendimiento de sus centros de datos. Los avances comentados son los próximos pasos hacia la “virtualización completa”.

Share

Windows Server 8 utilizará la plataforma cloud Windows Azure

Entre los días 13 y 16 de Septiembre tuvo lugar en Anaheim la conferencia dirigida a los desarrolladores BUILD Conference. Entre los mensajes que se lanzaron en la conferencia, nos quedamos con que la próxima versión servidor de Windows, Windows Server 8, y su plataforma cloud Azure tendrán una estrecha relación. Según Microsoft, la plataforma Azure será una opción escalable y de alta disponibilidad para los desarrolladores de aplicaciones. A su vez, están desarrollando nuevas características en su familia de productos para servidores.

Según IDC, está relación entre Windows Azure y Windows Server 8 irá creciendo:  “Se espera que los clientes utilicen cada vez más Windows Azure debido a las sinergias que Microsoft está desarrollando entre ambos productos, facilitando la adopción de un modelo híbrido de computación”.

Se espera que Azure sirva como plataforma de suministro de datos y servicios para aplicaciones basadas en Windows, así como un gestor de identidades en la utilización de una gran variedad de servicios web. En este sentido, Microsoft anunció la disponibilidad de Windows Azure Toolkit para Windows 8 que incluye ejemplos de código, documentación y componentes para desarrollar aplicaciones de estilo Windows Metro que se aprovecharán de la potencia de Windows Azure Compute y Storage.

En la misma conferencia, se hicieron demostraciones acerca del modelo PaaS de Azure y como puede ser utilizado para desarrollar aplicaciones en la nube. Según Microsoft, debido a que Azure gestiona, aprovisiona y monitoriza los recursos, los desarrolladores sólo se tendrán que preocupar de lo que están produciendo.

Asimismo, se hizo hincapié en la naturaleza escalable y de alta disponibilidad de Azure Storage: los datos son replicados tres veces y distribuidos entre múltiples centros de datos vía geo-replicación. De este modo, aunque alguno de los sistemas de almacenamiento falle, los datos son restaurados y están disponibles inmediatamente.

Windows 8 incluirá una nueva arquitectura de almacenamiento en disco llamada Storage Pools and Spaces. Storage Pools agregará los discos convencionales en unidades JBOD con una gestión simplificada. Storage Spaces es el mismo modelo aplicado a máquinas virtuales.

La importancia de la nube para Microsoft

Para Microsoft la nube será fundamental en su negocio. En este sentido, el CEO de Microsoft Steve Ballmer comentó que sus  principales productos (Windows, Windows Phone, Xbox, Office, Bing y Dynamics) serán rediseñados para trabajar mejor con la nube.

En palabras de Ballmer, “Los desarrolladores de aplicaciones de Windows necesitan pensar acerca de las oportunidades de negocio que la nube puede ofrecer. Windows Azure, Windows Live y la nube trabajando conjuntamente es un área donde los desarrolladores pueden añadir valor”.

Share

Bienvenido a Virtualizamos

Virtualizamos es un proyecto de la empresa nerion que nace con el objetivo de convertirse en un portal de referencia en el mundo de la virtualización y el cloud computing.
Suscripción a Virtualizamos
Entradas antiguas por mes
Twitter
nerion - Registro Dominios, Hosting y Housing Profesional