Desafíos clave en el camino hacia el centro de datos virtualizado


Los beneficios de virtualizar servidores x86 son claros. Con ello se rompe el vínculo entre el software y el hardware y se crea el fundamento para el desarrollo de centros de datos más dinámicos, flexibles y eficientes. Y las empresas parecen conscientes de estas ventajas, como demuestran los buenos augurios de las consultoras, cuyas estimaciones apuntan que este año el mercado de software de virtualización crecerá hasta alcanzar un volumen de 1.000 millones de dólares. Pero el camino hacia el centro de datos virtual no está libre de obstáculos y desafíos.

El cambio a un entorno virtual debe ser llevado a cabo cuidadosamente y con una clara comprensión de cómo la nueva infraestructura debe impactar sobre la planificación y la gestión TI para mantener el entorno bajo control. A continuación se exponen ocho de las principales dificultades a las que los usuarios deberán hacer frente en el despliegue de entornos virtuales, según diversos profesionales, analistas y suministradores de TI.

1) El peligro de menospreciar lo físico
El objetivo principal perseguido mediante la migración a un entorno virtualizado es la posibilidad de correr más cargas de trabajo virtuales sobre un menor número de sistemas físico. Pero eso no significa que el hardware haya de bajar posiciones en la lista de prioridades de los administradores de TI ni en sus presupuestos. Aunque se consiga romper el vínculo entre aplicaciones o sistemas operativos individuales y sistemas físicos individuales, resulta imprescindible contar con el hardware suficiente para soportar la carga en su conjunto. Si las organizaciones dejan de considerar cuidadosamente cuáles son los recursos físicos necesarios requeridos para soportar sus cargas virtuales y de monitorizar consecuentemente los recursos hardware, pueden meterse en problemas.

“Es imprescindible colocar los sistemas físicos correctos como base de la virtualización”, subraya David Payne, CTO (Chief Technology Officer) de la firma de consultoría especializada en virtualización Xcedex. “Algunos profesionales piensan que pueden comprar un sistema barato de la oferta de gama baja de HP o Dell, olvidarse del hardware y colocar la virtualización sobre estas plataformas para tener un entorno virtualizado. Pero muchas veces este proceso se realiza tomando como criterio prioritario el precio de la materia prima, en lugar de considerar cuáles serán las cargas de trabajo virtuales y elegir la base más adecuada para soportarlas”, asegura Payne. “La experiencia con nuestros clientes nos ha demostrado que los que mayor éxito han tenido en sus proyectos han prestado mucha atención al proceso de planificación de recursos. Sólo así se consiguen buenos resultados, altos niveles de utilización de los sistemas y un porcentaje de consolidación satisfactorio”.

2) Grado de preparación de las aplicaciones
Aunque el despliegue de la virtualización es cada vez más amplio en las empresas, muchas aplicaciones todavía no están preparadas para funcionar en entornos virtuales. Así lo corrobora la experiencia de Daniel Burtenshaw, ingeniero de sistemas principal de la Universidad de Ciencias de la Salud de Salt Lake (Estados Unidos), donde se ha desplegado el servidor ESX Server de VMware hace alrededor de un año con resultados, en general, satisfactorios. Según Burtenshaw, “los principales problemas a los que ha tenido que hacer frente están relacionados con el hecho de que algunos de nuestros suministradores no estaban dispuestos a soportar sus aplicaciones sobre servidores virtuales. Un inconveniente que en nuestro caso se ha visto agravado por las limitaciones de la versión de ESX que estamos utilizando”. Esta organización ha desarrollado un entorno predominantemente Citrix, pero cuando trasladó algunos de sus servidores Citrix al entorno VMware, descubrió que el rendimiento de las aplicaciones resultaba significativamente perjudicado con el cambio.

No obstante Burtenshaw confía en que pronto la situación mejorará como resultado de un proyecto para actualizar su plataforma a la versión del software VMware Virtual Infraestructure 3. “Por la información con que contamos –aunque todavía no hemos puesto a prueba el nuevo software- se supone que Virtual Infraestructure 3 ha sido precisamente optimizada para el hosting Citrix”.

3) La seguridad se hace más compleja
Una vez se haya desplegado un entorno virtual, como se ha dicho -y en ello reside el principal beneficio- se eliminará el vínculo entre hardware y software. Aunque esto sea una ventaja en muchos aspectos, puede crear confusión e incertidumbre cuando de lo que se trata es de securizar la infraestructura TI. “La desvinculación entre software y hardware puede cegar a los profesionales de la seguridad TI dificultando su visión sobre lo que ocurre detrás de sus dispositivos de seguridad”, explica Allwyn Sequeira, vicepresidente senior de operaciones de producto de la firma especialista en parcheado de sistemas Blue Lane Technologies. “El entorno servidor se hace mas fluido, más complejo, lo que, en el fondo, hace que los responsables de seguridad pierdan la estabilidad que el hardware les proporciona. Cualquier tipo de exploración de seguridad convencional puede convertirse en obsoleto en cuestión de minutos”, asegura.

Por su parte, Dennis Moreau, CTO de la compañía de conformidad y seguridad Configuresoft, coincide con Sequeira. La virtualización racionaliza la provisión y diversos procesos, como la aplicación de parches, pero también añade complicaciones de las que los profesionales de TI pueden no ser conscientes. “Siempre hemos tenido que parchear el sistema operativo y la aplicación. Ambas cosas deberán seguir haciéndose cuando se virtualice, pero ahora, de repente, también se deberá parchear el nivel del gestor de máquina virtual, donde pueden existir vulnerabilidades”, explica a modo de ejemplo Moreau. “En consecuencia, el trabajo de mantener un entorno seguro y de documentar esa seguridad por cuestiones de conformidad, simplemente debido a la introducción del nivel tecnológico de virtualización, se hace más complejo”.

4) Quedar acorralado
El mercado de la virtualización está evolucionando rápidamente e incluso VMware, líder en este negocio, está promoviendo el desarrollo de una forma estándar para crear y gestionar máquinas virtuales. Pero los estándares y la interoperatividad llegarán muy lentamente. Por ello, las empresas que no presten la debida atención a este inconveniente probablemente acaben atrapadas en el enfoque de un determinado proveedor, lo que hará difícil y caro introducir en el futuro los nuevos enfoques que irán apareciendo a medida que las tecnologías maduren. “Los usuarios deben intentar elegir soluciones que puedan considerarse en alguna medida estándares y abiertas dentro de los límites actuales del mercado de la virtualización. Conviene, por ejemplo, optar por aquellas soluciones que permitan importar máquinas virtuales de otros productos diferentes”, subraya Ulrich Seif, CTO de la compañía National Semiconductor. “Se trata de un mercado emergente, en el que pueden ocurrir demasiadas cosas en un par de años como para quedar ya hoy encerrados en un determinado enfoque”.

5) Controlando la cantidad de máquinas virtuales
Originalmente, la virtualización fue una gran idea para consolidar servidores físicos, y en consecuencia reducir las demandas energéticas y los costes de adquisición de nuevas máquinas. Pero, precisamente debido a la facilidad con la que las máquinas virtuales pueden desplegarse, muchas empresas descubren que pese a haber reducido e

TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS