Storage

Herramientas para convertir formatos de máquinas virtuales

Si la semana pasada os presentamos una serie de herramientas útiles para la gestión de entornos virtualizados, en el post de  hoy vamos a hablar sobre herramientas para convertir entre formatos de disco de las distintas soluciones de virtualización existentes.

Es conocida la incompatibilidad existente entre los distintos formatos de disco virtual de los principales fabricantes de virtualización: VMware ESX, Hyper-V y XenServer. Éstos utilizan formatos y tecnología propietaria que hace necesaria la conversión cuando se migra de una plataforma a otra.

Mientras que VMware utiliza como formato de disco VMDK, XenServer e Hyper-V utilizan formatos propietarios de VHD. Estos formatos son completamente diferentes y no pueden ser utilizados con otro hypervisor. Por suerte existen soluciones en el mercado que nos permiten convertir discos virtuales de un formato de hypervisor a otro.

XenConvert

Citrix tiene una herramienta gratuita, XenConvert, que permite hacer conversiones P2V (Physical to Virtual) y V2V (Virtual to Virtual). Como conversor V2V permite convertir una máquina virtual apagada, con sistema operativo Windows o Linux, o un disco virtual en formato VHD, OVF, VMDK o XVA a una máquina virtual XenServer.

Información sobre como convertir una máquina virtual VMware a XenServer.

VMware Converter

VMware también tiene su propia herramienta de conversión: VMware Converter. Al igual que XenConvert permite realizar conversiones P2V y V2V permitiendo realizar conversiones desde otros formatos de máquinas virtuales o imágenes de máquinas físicas de Symantec Backup Exec System Recovery o Norton Ghost.

Información sobre convertir una máquina virtual XenServer a VMware.

Otras herramientas

También existen otras soluciones que únicamente realizan conversiones entre formatos de ficheros. Entre ellas podemos encontrar StarWind V2V Converter que realiza conversiones entre ficheros VHD y VMDK y viceversa. La herramienta WinImage también permite realizar el mismo tipo de tareas. Por último, para realizar conversiones de máquinas virtuales VMDK al formato VHD de Microsoft, podemos utilizar Vmdk2Vhd.

Share

¿Soluciones cloud para recuperación ante desastres en empresas?

Actualmente existen múltiples técnicas y tecnologías que permiten a las empresas establecer un plan de recuperación ante desastres (DR o DRP). Obviamente la tecnología escogida se tiene que ajustar a las necesidades y al volumen de datos almacenado por la empresa.

Cuando una empresa establece un plan DR lo que pretende es proteger sus datos de un posible fallo en el sistema pero también de un posible desastre (por ejemplo un incendio) que pueda afectar al centro donde está alojada su infraestructura informática.

 

Una solución de copia en cinta, ¿puede ser una opción ante desastres?

Tradicionalmente se ha utilizado la cinta como sistema de copia de seguridad, aunque actualmente cada vez se utiliza más la realización de copias sobre disco. El elemento común de todos estos sistemas es que los datos necesitan ser copiados fuera de la localización principal de la infraestructura IT de la empresa.

En empresas pequeñas, con limitaciones de presupuesto, que no necesitan realizar copias de seguridad de un gran volumen de datos y/o no necesitan que estén disponibles en un período corto de tiempo,  en caso de pérdida de datos, la cinta todavía puede ser una opción viable.

A la hora de establecer una estrategia DR es fundamental preguntarse con qué rapidez necesitas que tus datos vuelvan a estar disponibles. Por lo tanto, si se necesita que los datos sean recuperados instantáneamente o en escenarios de failover , las tecnologías de cinta no son una opción viable. En ese caso, la empresa tendría que plantearse soluciones de replicación de datos y/o clustering.

 

¿Qué es necesario para que un sistema de replicación remota sea efectivo?

Actualmente existen tecnologías, como WAN optimization o Deduplication, que permiten la replicación completa o parcial de una infraestructura IT en una localización externa. El problema de estas soluciones es que a menudo el coste asumido no se adapta al presupuesto de la empresa, no digamos en una PYME.

Estas soluciones no son efectivas si la conectividad entre la ubicación principal y la réplica no es lo suficientemente rápida. Supongamos que necesitamos utilizar la infraestructura de réplica y la velocidad de acceso es lenta o que después de un desastre necesitamos que los datos en nuestra infraestructura principal reflejen los últimos cambios. Por lo tanto necesitamos el suficiente ancho de banda con el consiguiente coste a asumir por parte de la empresa.

Aspectos a tener en cuenta en una solución cloud DR

Para empresas pequeñas, soluciones cloud como backup online pueden ser una opción que se adapta tantos a sus necesidades como a su presupuesto. Pero conforme la cantidad de datos aumenta la accesibilidad a los mismos se puede ver afectada.

En una empresa que maneje terabytes de datos, en caso de desastre y en función de la importancia de los datos para la supervivencia de la empresa, soluciones de este tipo no pueden ser una opción. Imaginémosnos la cantidad de ancho de banda necesario o dónde recuperarán tales cantidades de información. Este tipo de empresas deberían buscar soluciones cloud más adecuadas para su infraestructura basadas en IaaS o PaaS.

Existen empresas, como SunGard o IBM, que proveen servicios DR suministrando un sitio alternativo donde ser replicados tus datos. Básicamente dan servicios de equipamiento en standby preparado para utilizarse en caso de desastre.  Este tipo de soluciones, que permiten aumentar los niveles de servicio de una empresa, pueden ser utilizadas tanto por grandes empresas como PYMES. En vez de tener que destinar una parte de los presupuestos a su infraestructura IT,  están pagando por un servicio determinado que es imputable como un coste operacional más.

 

 

Share

Gestión del almacenamiento en una infraestructura VDI

En el día de hoy vamos a hablar de como gestionar el almacenamiento en una infraestructura VDI. Para aquellos que no conozcan a que nos estamos refiriendo, VDI es el acrónimo de Virtual Desktop Infrastructure y hace referencia a aplicar el concepto de virtualización al entorno de escritorio (ordenadores personales) separándolo de la máquina física y utilizando un modelo cliente-servidor.

De este modo, VDI virtualiza imágenes de escritorio que pueden ser desplegadas desde un servidor de alojamiento centralizado a terminales de usuario (thin-clients). Esto permite reducir costes operativos y mejorar la seguridad.

Poco a poco las grandes empresas, con una gran cantidad de terminales físicos, están implementando este modelo con el objetivo de ahorrar costes y facilitar la administración y gestión de dichos equipos. Pero el éxito de implementar una infraestructura VDI depende de que la experiencia del usuario en el día a día no se vea afectada, y en este sentido el almacenamiento es uno de los factores con mayor impacto.

El almacenamiento que se establezca debe ser capaz de soportar picos de utilización en el almacenamiento. Por ejemplo, los denominados boot storms (arranque simultaneo de aplicaciones o sistemas operativos por parte de múltiples usuarios) producen altos picos de lectura/escritura en el almacenamiento. También pueden producir un aumento en la utilización la aplicación de parches, actualizaciones de antivirus, cierres de sesión de usuarios, etc.

Establecer requisitos de almacenamiento

A la hora de diseñar una infraestructura VDI es necesario comprender los requisitos de los usuarios. Para ello es imprescindible disponer de estadísticas reales de aquellos usuarios que vayan a ser «virtualizados». Existen varios productos en el mercado que permiten obtener datos de los equipos de los usuario y facilitan el poder determinar las necesidades.

La principal unidad de medida para el almacenamiento son los IOPS y deben adaptarse a los datos tomados de los equipos. Existen múltiples factores que pueden afectar a esta medida, como por ejemplo la existencia o no de caché, el tamaño de bloque, existencia de RAID, etc. Pero la base del cálculo de los IOPS de una cabina se derivan de factores hardware como: velocidad de rotación (rpm), latencia y tiempo de búsqueda.

Por ejemplo, un disco típico de 7200 RPM suele dar 75 IOPS, mientras que un disco de 15K RPM 175 IOPS o un disco de estado sólido 5.00o IOPS.

Como comentábamos antes, no se debe diseñar el almacenamiento VDI para gestionar las cargas medias de E/S, debe ser capaz de poder soportar los picos de carga. Por lo tanto, tener la suficiente capacidad de almacenamiento es un factor importante, pero el poder dar un rendimiento suficiente lo es más.

Trucos para aumentar la eficiencia

Linked clones

Utilizar linked clones puede ahorrarnos el uso de capacidad de almacenamiento. El concepto se basa en tener una máquina virtual «maestra» que mantiene una imagen base del sistema operativo que utilizan los equipos de los usuarios. De este modo, todos los escritorios virtuales leen desde la misma imagen y escriben sobre un fichero dedicado a cada uno de ellos. Estos ficheros, llamados ficheros delta, normalmente son de un tamaño pequeño.

Aunque la utilización de linked clones a simple vista tenga ventajas, por el contrario pueden ser más complicadas de mantener que imágenes de disco completas para cada escritorio.

Asignación de RAM

Otro truco que puede mejorar el rendimiento es la cantidad de RAM asignada a una máquina virtual. Si no se asigna la suficiente cantidad de RAM, el sistema operativo comenzará a paginar sobre disco, lo cual puede incrementar el número de E/S a disco.

Pero asignar mucha RAM también puede tener efectos perniciosos sobre el rendimiento del almacenamiento, ya que es posible que causen swapping a nivel de la capa de virtualización si el Host tiene más memoria asignada que la realmente tiene físicamente (overcommitting).

Aceleradores y cachés

En el mercado existen dispositivos de caché y aceleradores SAN que nos dan más IOPS. Además nos permiten ahorrar dinero en la adquisición de la cabina de almacenamiento ya que podemos comprar un sistema más económico.

Utilizar cachés de lectura lo suficientemente grandes, pueden mejorar el rendimiento en las boot storms.

Evitar picos de uso

Por último, evitar lo más posible la aparición de picos de uso. Aunque las denominadas boot storms no pueden ser evitadas, otras operaciones como el parcheado o actualización de antivirus pueden ser escalonadas en el tiempo. En lo que respecta a los antivirus, el procesado puede ser trasladado de la capa de sistema operativo del escritorio a la capa de virtualización donde se ejecuta más eficientemente.

Share

Consejos de utilización de NFS en un entorno virtualizado

Los entornos de virtualización básicamente soportan tres tipos de tecnologías de almacenamiento:

  • DAS (Direct Attached Storage): discos físicos directamente conectados al Host.
  • NAS (Network Attached Storage): se comparten sistemas de ficheros a través de red. Los protocolos más conocidos son NFS o CIFS.
  • SAN (Storage Area Network): a diferencia de un sistema NAS, en una red SAN se presentan en la red bloques de disco. Las tecnologías más conocidas son iSCSI y Fiber-Channel.

En este artículo nos vamos a centar en la tecnología NAS y en partícular en NFS. La utilización de NFS en un entorno virtualizado presenta ventajas de coste y complejidad para los administradores IT. Por el contrario, NFS da un rendimiento inferior a tecnologías tipo SAN y no soporta multi-pathing.

¿Qué beneficios tiene utilizar NFS en entornos virtualizados?

El principal beneficio es el coste. Tener un sistema de almacenamiento compartido es casi obligatorio en una infraestructura de virtualización si se desea aprovecharse de alguna de sus características avanzadas como la alta disponibilidad o la migración entre hosts en caliente (vMotion en VMware).

El coste de implementar una solución en Fiber-Channel es normalmente más elevado que una solución NAS.  Ésta utiliza componentes de red comunes como tarjetas de red, cables de red o switches en vez de adaptadores, cables de fibra y switches FC que habitualmente tienen un precio elevado.

Otro beneficio es la complejidad. Implementar una solución NAS es normalmente más sencillo que una solución SAN y no suele ser necesario disponer de la ayuda de un administrador especializado en almacenamiento.

¿Qué desventajas o complicaciones puedes tener en una solución NAS?

NFS no soporta el arranque de sistemas, por lo tanto si deseas que tus Hosts arranquen de una solución de red centralizada no podrás hacerlo utilizando NFS.

NFS utiliza un software cliente para poder acceder a los sistemas de ficheros en red. Éste está compilado a nivel hypervisor en vez de a nivel de adaptador hardware. Por lo tanto, se produce una sobrecarga de CPU cuando se comunica el hypervisor con el servidor NFS que puede afectar al rendimiento de las máquinas virtuales. En este sentido es primordial tener la suficiente capacidad de procesamiento (CPU) para evitar que llegue a ser el cuello de botella de nuestra infraestructura.

Por último, una solución NAS no soporta multi-pathing. Este tipo de solución, soportada en iSCSI o FC, se utiliza para balancear la carga y tener tolerancia a fallos. Con NFS, únicamente una sesión TCP está abierta con el almacenamiento, lo cual limita el rendimiento global. Este hecho puede ser resuelto parcialmente utilizado tarjetas 10 Gigabit Ethernet (GbE) o utilizando múltiples almacenamientos de  un tamaño menor. En cuanto a la tolerancia a fallos, la única solución es utilizar múltiples NICs a nivel de virtual switch.

Consejos para lograr el mayor rendimiento posible en una solución NAS

Como ya hemos comentado, es vital tener los suficientes recursos en CPU para evitar que llegue a ser el cuello de botella de nuestra solución. Esto puede ser resuelto de manera más o menos simple asegurándose de que no se sobrecargan las CPUs virtuales con un número elevado de máquinas virtuales.

La arquitectura de red es otro aspecto a tener en cuenta. NFS es altamente dependiente de la «salud» de nuestra red y de su utilización. Por lo tanto, es básico aislar el tráfico NFS del resto utilizando tarjetas de red (NIC) físicas dedicadas que no sean compartidas por ninguna máquina virtual. Del mismo modo, a nivel de switch se debe aislar la comunicación entre los Hosts y servidores NFS creando VLANs dedicadas.

La utilización de NICs de 1 GB suele ser adecuada en la mayoría de los casos, pero si queremos obtener un rendimiento superior podemos utilizar tarjetas de 10 GbE.

Por último, el tipo de almacenamiento NFS que utilicemos es vital y debe adaptarse a nuestra demanda de E/S (I/O). Por lo tanto, por ejemplo no tiene sentido utilizar un viejo servidor Linux como servidor NFS. En general, cuanto más dinero invirtamos en una solución NFS, mayor rendimiento obtendremos. Es fundamental que la solución adquirida se adapte a las necesidades de nuestra infraestructura de virtualización.

Share

vSphere Storage DRS. Nueva funcionalidad de vSphere 5

Ayer os presentábamos a grandes rasgos las mejoras introducidas en la versión 5 de vSphere. Hoy vamos a profundizar en una de las innovaciones introducidas: Storage DRS.

En vSphere 4 apareció el concepto DRS (Distributed Resource Scheduler) aplicado a procesamiento. Esta característica permitía de manera automática distribuir la ejecución de las máquinas virtuales entre los hosts disponibles en función de la carga de éstos.

Ahora VMware aplica el concepto DRS al almacenamiento. De este modo, vSphere es capaz de alojar dinámicamente máquinas virtuales en un determinado «storage» en función de las entradas/salidas (I/O) y el espacio ocupado en el mismo. De este modo se reducen los esfuerzos en las decisiones a tomar en el alojamiento de una determinada máquina virtual así como en la monitorización del almacenamiento.

Para poder aplicar DRS, vSphere 5 introduce el concepto de cluster de datastore. Un cluster de almacenamiento es, desde la perspectiva de un administrador, un conjunto de discos (datastores) agregados en una única unidad. Cuando se crea un cluster de este tipo, Storage DRS puede administrar los recursos de almacenamiento de igual manera a como hace DRS a nivel de procesamiento para un cluster de hosts, balanceando la carga entre los discos disponibles en el cluster.

En la siguiente imagen se muestra un cluster de 12TB formado por cuatro datastores de 3TB.

 

En este esquema, durante la creación de una máquina virtual es posible seleccionar un cluster DRS como destino para almacenar sus discos virtuales. A continuación, el sistema es capaz de detectar, en función de la carga en I/O y espacio utilizado, el datastore sobre el que se almacenará inicialmente la máquina virtual. De este modo se minimiza el riesgo de cuellos de botella e impactos en el rendimiento por agregar una nueva máquina virtual.

Storage DRS también permite crear reglas de afinidad (affinity rules) que controlan que discos virtuales deberían estar alojadas o no en un mismo datastore dentro de un cluster. Aunque por defecto, los discos virtuales de una misma máquina virtual se alojan juntos en el mismo datastore, existen tres tipos de reglas de afinidad:

  • VMDK Anti-Affinity: discos virtuales de una máquina virtual con múltiples discos virtuales son alojados en diferentes datastores.
  • VMDK Affinity: discos virtuales son alojados juntos en un mismo datastore.
  • VM Anti-Affinity: dos máquinas virtuales específicas, incluídos sus discos, son alojados en diferentes datastores.

 

Share

Bienvenido a Virtualizamos

Virtualizamos es un proyecto de la empresa nerion que nace con el objetivo de convertirse en un portal de referencia en el mundo de la virtualización y el cloud computing.
Suscripción a Virtualizamos
Entradas antiguas por mes
Twitter
nerion - Registro Dominios, Hosting y Housing Profesional