¿Qué es la virtualización y por qué la necesito?

¿Qué es la virtualización y por qué la necesito?

Hagan la prueba. Tecleen en Google “virtualization is at the core”, la virtualización está en el centro, y denle a buscar. Los primeros resultados proclaman que la virtualización está en el centro de “la tecnología ‘cloud’» y “los centros de datos”, tanto en genérico como de los modernos o en variables conjuntas: «un nuevo paradigma, el centro de datos moderno construido en una arquitectura en la nube«. Otras respuestas apuntan a que es el núcleo de “la computación móvil en el extremo”, «un enfoque SDDC» y “muchos de los ecosistemas empresariales TI de hoy en día”.

Quizás esta última sea un buen resumen de las anteriores ya que, básicamente, si se atiende a esas primeras entradas, la virtualización está en el centro del entorno informático actual corporativo. “Ningún avance en la tecnología de la información en las últimas seis décadas ha ofrecido un mayor rango de beneficios cuantificables que la virtualización”, escribía en 2017 Craig Mathias, tecnólogo y experto en comunicaciones inalámbricas, en un artículo para la edición USA de NetworkWorld. Así pues, entender bien qué es la virtualización y qué aporta a la gestión de la infraestructura tecnológica parece un punto de partida primordial para el trabajo en sistemas.

De recursos físicos a virtuales

La firma de análisis Gartner define virtualización en su glosario de términos TI como la abstracción de los recursos de TI que enmascara la naturaleza física y los límites de esos recursos a sus usuarios, englobando dentro de la categoría de recursos de TI a servidores, clientes, almacenamiento, redes, aplicaciones o sistemas operativos. “Esencialmente, cualquier bloque de construcción de TI se puede abstraer potencialmente de los usuarios de recursos”. Esto es, es la tecnología para “crear múltiples entornos simulados o recursos dedicados desde un solo sistema de hardware físico”, añaden desde Red Hat. Cuando se habla de virtualización hay que distinguir entre el hipervisor, software que se conecta con el equipo físico del que depende, y ‘virtual machine’ —VM— o las máquinas virtuales en las que se reparte la infraestructura. Sin embargo, reducir la virtualización a VM e hipervisores es solo “rozar la superficie”, advertía Mathias, ya que hay un creciente número de tecnologías, capacidades y posibilidades que se enmarcan en esta categoría y que están “redefiniendo elementos centrales de TI en las organizaciones”.

Pero contrariamente a lo que pudiera parecer, la virtualización no es una tecnología reciente. Sus orígenes se remontan a las seis décadas de las que hablaba Mathias, con las primeras pruebas que datan de entre finales de 1960 y principios de 1970 de la mano de IBM. La compañía investigaba el desarrollo de soluciones que compartiesen recursos informáticos entre grupos de usuarios para mejorar la eficiencia. Sin embargo, pasaron décadas hasta que su uso se popularizase. Hubo que esperar hasta el cambio de milenio, cuando la creciente dependencia de distintos elementos físicos forzó un cambio de modelo que facilitase que todas las soluciones y equipos funcionasen entre sí, independientemente del proveedor, con alternativas más económicas para un mayor consumo de TI.

Este es uno de los aspectos que permiten entender cómo la idea era ya rompedora en origen, ya que reducía de forma importante el coste de acceder a capacidad de computación. Una situación que se repite en la actualidad, ya que los servidores han mejorado en capacidad de tal modo que muchas cargas de trabajo no consiguen aprovecharla de forma efectiva y la virtualización se erige como opción idónea para optimizar el uso de recursos, como explicaba la firma Oracle en un manual de 2012.

Una alternativa eficiente y rentable

La evolución histórica de la virtualización apunta ya varias de las ventajas que la tecnología aporta a las empresas: un mejor aprovechamiento de los recursos e importante ahorro económico. La reducción en los costes viene motivada por distintos factores, desde la menor dependencia de infraestructuras físicas y de los gastos de mantenimiento y energía asociados al aprovechamiento de la tecnología heredada que sea compatible con aplicaciones críticas. Relacionado con esto, la virtualización favorece la escalabilidad y la flexibilidad en la contratación o el uso de sistemas o equipos, de tal modo que se puedan adaptar a las necesidades en cada momento y no haya problemas por falta de potencia o recursos que permanezcan parados.

Otro de los aspectos ya señalados es la superación del bloqueo de proveedores. En los tiempos en los que la parte informática de las organizaciones se estructuraba en pilas independientes, cada una contratada a una compañía, la norma era que no se pudieran emplear tecnologías de distintas firmas en un mismo sistema. El actual sistema virtual potencia un entorno colaborativo e interoperativo, en el que elegir la solución del proveedor que más se ajuste a lo que el negocio y la estrategia de futuro requieran.

Desde VMware se apuntan otros beneficios. El empleo de sistemas virtuales incrementa la productividad al simplificar toda la gestión de la TI y descargar al equipo encargado de su cobertura de parte del trabajo de mantenimiento que ocupaba antes su tiempo, destinando estos recursos en beneficio de la empresa. La apuesta por la virtualización permite reducir los tiempos de parada y agilizar la respuesta ante incidentes, garantizando la continuidad del negocio. Además, se consigue un mejor rendimiento por un menor coste, se aceleran los procesos de aprovisionamiento de recursos y aplicaciones. El contar con sistemas más potentes va en beneficio de toda la plantilla y del negocio en general.

La virtualización ha dejado de ser hace tiempo una apuesta arriesgada para convertirse en el estándar por defecto. Las facilidades en su implementación y las ventajas derivadas de su uso aseguran que asuma su posición en el centro del nuevo escenario de transformación digital.

About the Author: Dell Technologies