miércoles, 6 de julio de 2011

articulo Tendencias de la Virtualización


Tendencias de la Virtualización

John E. Brown
Estudiante

Resumen- La virtualización se encarga de crear una interfaz externa que esconde una implementación subyacente mediante la combinación de recursos en localizaciones físicas diferentes, o por medio de la simplificación del sistema de control. Un avanzado desarrollo de nuevas plataformas y tecnologías de virtualización han hecho que se vuelva a prestar atención a este importante concepto. De modo similar al uso de términos como “abstracción” y “orientación a objetos”, virtualización es usado en muchos contextos diferentes. Este concepto que es realmente interesante y que se lleva desarrollando desde hace muchos años, parece que finalmente está encontrando sus caminos productivos y de desarrollo para profesionales.
Palabras Claves- software, tendencias, virtualización.

Introducción

En Informática, virtualización se refiere a la abstracción de los recursos de una computadora, llamada Hypervisor o VMM (Virtual Machine Monitor) que crea una capa de abstracción entre el hardware de la máquina física (host) y el sistema operativo de la máquina virtual (virtual machine, guest), siendo un medio para crear una versión virtual de un dispositivo o recurso, como un servidor, un dispositivo de almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en uno o más entornos de ejecución.
Esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos principales de una computadora (CPU, Memoria, Red, Almacenamiento) y así podrá repartir dinámicamente dichos recursos entre todas las máquinas virtuales definidas en el computador central. De modo que nos permite tener varios ordenadores virtuales ejecutándose sobre el mismo ordenador físico.
Tal término es antiguo; se viene usando desde 1960, y ha sido aplicado a diferentes aspectos y ámbitos de la informática, desde sistemas computacionales completos, hasta capacidades o componentes individuales. Lo más importante en este tema de virtualización es la de ocultar detalles técnicos a través de la encapsulación.
La máquina virtual en general es un sistema operativo completo que corre como si estuviera instalado en una plataforma de hardware autónoma. Típicamente muchas máquinas virtuales son simuladas en un computador central. Para que el sistema operativo “guest” funcione, la simulación debe ser lo suficientemente grande (siempre dependiendo del tipo de virtualización).

La virtualización será la tendencia de mayor impacto en las TI


De las tendencias en tecnologías de la información de más impacto, la virtualización será la que más y mayores cambios provoquen en las operaciones e infraestructuras de TI durante los próximos cuatro años. Según Gartner, esta tecnología transformará todos los aspectos de las TI, desde las mismas soluciones que se compren a cómo se planifiquen, desplieguen y gestionen. Como resultado, la virtualización está creando una nueva ola de competencia entre los fabricantes de infraestructura que modificará y consolidará considerablemente el mercado en los próximos años.
De acuerdo con la consultora, el factor clave de este cambio es la virtualización de los servidores, ya que permitirá desbloquear la capacidad infrautilizada de las actuales arquitecturas de estos equipos. De hecho, esta tendencia ya se está dejando sentir en el mercado de servidores: según las estimaciones de Gartner, en 2006 la virtualización redujo el mercado de equipos x86 en un 4%. Y este impacto será aún mayor a medida que caigan los precios de los hipervisores y disminuyan los costes de gestión como resultado de una mayor competencia. La consultora predice la instalación de más de cuatro millones de máquinas virtuales en 2009.
También la llegada de esta tecnología a los PC se incrementará rápidamente. Se espera que el número de ordenadores personales virtualizados pase de los 5 millones que había en 2007 a 660 millones en 2011. En el PC, la separación del hardware y el software se produce a dos niveles: entre el hardware y el sistema operativo (virtualización de la máquina) y entre el sistema operativo y las aplicaciones (virtualización de aplicaciones). Y aunque está creciendo el interés en la virtualización de las aplicaciones, Gartner mantiene que es la de las máquinas la que tendrá mayor impacto a largo plazo, haciendo que los PC sean más gestionables, flexibles y seguros.

 

Adiós a los sistemas operativos monolíticos


“Esencialmente, la virtualización crea un cambio en la evolución de los sistemas operativos”, asegura Thomas Bittman, vicepresidente de Gartner. “Hasta ahora, el sistema operativo ha sido el centro de gravedad de la informática cliente/servidor, pero la aparición de nuevas tecnologías, nuevos modelos de computación y de la automatización y virtualización de la infraestructura está cambiando su arquitectura y su rol en los entornos informáticos. Los días de los sistemas operativos monolíticos y de propósito general pronto pasarán”. Una cuestión que, junto con un análisis más detallado de todos los aspectos de la virtualización, será abordada en el transcurso del Gartner Symposium/ITxpo 2008 que se celebrará del 12 al 15 de mayo en Barcelona.
En el entorno competitivo que la virtualización está creando, caracterizado por la incertidumbre que prevalecerá a corto y medio plazo hasta que acaben triunfando unas pocas arquitecturas de control de infraestructura dominantes, Bittman recomienda no seguir una visión específica de fabricante; por el contrario, aconseja a los usuarios determinar su propia visión del control de la arquitectura e ir en esa dirección con un plan estratégico actualizado constantemente. “A medio plazo, lo mejor es alinear la estrategia de virtualización propia con el negocio, evitar el marketing desmesurado de los fabricantes y ser conscientes del precio y modelo de licenciamiento del software”, afirma.

Mejores prácticas


A partir de la experiencia de más de mil empresas, Gartner recomienda abordar la virtualización de servidores siguiendo las siguientes mejores prácticas:
uuu Pensar en grande, comenzar en pequeño. Desde el punto de visto tanto los costes y la gestión, lo mejor es comenzar con despliegues pequeños para pasar luego a una segunda fase más estratégica y compleja con el objetivo de mejorar la calidad y la velocidad de los servicios.
- A por un rápido ROI. Las empresas han de crear un business case que les permita conseguir un retorno de la inversión en seis meses o menos. En general, las empresas que despliegan como mínimo 50 máquinas virtuales al año lo consiguen.
uuu Sólo las aplicaciones correctas. No todas se adaptan bien. Las más adecuadas para empezar suelen ser las aplicaciones empaquetadas más pequeñas y viejas.
Definir una estrategia de almacenamiento. Decidir cómo y dónde almacenar las imágenes virtuales y los datos de aplicaciones es un factor crítico. Si se almacenan en un sistema central, se podrá acceder a ellas desde cualquier servidor conectado al sistema de almacenamiento.
- Comprensión del software. Hasta que surjan nuevos modelos de precios, los usuarios deben comprender en detalle las políticas a este respecto, así como de licencias, de los ISV.
- Combinar la efectividad de las máquinas virtuales. Un objetivo clave es poder asumir dinámicamente los cambios de las cargas de trabajo, especialmente en las primeras fases.

La virtualización, última tendencia para empresas y usuarios


Las empresas ya pueden acceder a todas sus bases de datos confidenciales a través de cualquier ordenador, de forma rápida y sencilla. De esta forma, ahorran tiempo y dinero en la consulta, una actividad que antes resultaba costosa y lenta.
El gasto en la memoria y archivo de información en el seno de las empresas ascendió a un millón de dólares en 2007, según un estudio de
IDC. El gabinete espera además que la cifra aumente hasta los 1,8 millones de dólares este año.
Además, los centros de documentación de las empresas amplían sus contenidos cada año entre un 50 y un 55%, frente al 30-35% del avance en los discos duros. “Para seguir este ritmo de crecimiento, hay que añadir nuevos discos duros sin fin o bien buscar una alternativa”, explica Dave Reinsel, director de los archivos del IDC.
Gracias a la virtualización de los fondos de información en el seno de la empresa se puede además gestionar de forma centralizada los sistemas y redes.

Conclusiones

A nivel mundial, en 54% de los grandes corporativos se considera la administración de su ambiente en servidores virtuales como una actividad crítica o de alta prioridad en TI; sin embargo, sólo 45% cree que sus compañías están realizando un trabajo efectivo en esta importante área.
Un manejo exitoso en la infraestructura de la virtualización es esencial para optimizar las iniciativas tecnológicas, esto permitirá documentar los retornos de inversión y aumentar la productividad en toda la empresa.
Las capacidades más importantes cuando se maneja un entorno de virtualización son rendimiento/utilización, seguridad y automatización y también que los principales beneficios que se han producido como resultado de las iniciativas de virtualización de servidores, son una provisión sencilla de hardware y el despliegue del software, un desarrollo más flexible y probado de entornos, así como la optimización en el rendimiento del sistema.

Referencias




No hay comentarios:

Publicar un comentario