Seguidores

domingo, 25 de noviembre de 2012

RESUMEN DE LA VIRTUALIZACIÒN

Breve historia de la virtualización(Trabajo realizado por Xavier, Kenia, Ana y Magaly)

Contrario de lo que la mayoría piensa, el tema de la vitalización no es nada nuevo. Durante la década de los 60 los equipos de informática de muchas empresas y entidades tenían un problema similar: contaban con super-computadoras o “mainframes” de alto rendimiento que deseaban “particionar lógicamente”, o utilizar para múltiples tareas simultaneas (lo que hoy conocemos como “multitasking”, trabajar más de una aplicación o proceso simultáneamente). Es por esto que IBM desarrolló un método para crear múltiples “particiones lógicas” (similar a lo que conocemos hoy como “maquinas virtuales”) las cuales trabajaban independientemente una de las otras, y cada una utilizando los recursos provistos por el “mainframe”.
Ya para la década de los 80 y con la llegada de las relativamente económicas maquinas x86, comenzó una nueva era de micro computadoras, aplicaciones cliente-servidor, y “computación distribuida”; en donde los enormes y potentes “mainframes” con mil y una tareas y utilidades en una sola caja gigantesca se comenzaron a cambiar por relativamente pequeños servidores y computadoras personales de arquitectura x86, con “una caja diferente para cada uso”, lo que se convirtió rápidamente en el estándar de la industria. Debido a esto, una vez más, el tema de la virtualización vuelve a quedar prácticamente en el olvido… y no es hasta finales de la década de los 90 que gracias al alto desarrollo del hardware volvemos a caer en un predicamento similar al que estábamos en los años 60: el hardware existente es altamente eficiente, y utilizar cada “caja” para una sola aplicación seria un desperdicio de recursos, espacio, energía y dinero; y tampoco es conveniente asignarle múltiples usos o instalar varias aplicaciones en un solo servidor convencional, por más de una razón (ej. estas aplicaciones podrían ser conflictivas entre sí, o podrían requerir diferentes configuraciones e inclusive diferentes sistemas operativos, o tener diferentes requerimientos de seguridad, entre otras variables que podrían causar problemas al ejecutar estas funciones simultáneamente). Es por esto que vuelve a resurgir la idea de dividir el hardware, de manera tal que funcione como múltiples servidores independientes pero compartiendo los recursos de un mismo servidor fisico. Y es de aquí que nace lo que hoy todos conocemos como “Virtualización”.
Actualmente existen diferentes compañías que se dedican al desarrollo de aplicaciones y soluciones de virtualización, pero de estas hablare en próximos artículos de este tema.
En estos últimos años, una de las tecnologías de computación de las que más se habla y que más ha evolucionado es la virtualización. Hace algunos años la virtualización no era tomada en cuenta como una alternativa real al momento de instalar servidores y otros equipos de producción en la mayoría de los Centros de Cómputos, debido mayormente a que era una tecnología poco probada, demasiado costosa, o por el ya conocido “miedo al cambio” en donde simplemente se le teme a lo que no se conoce o es diferente. Sin embargo, actualmente la virtualización se ha posicionado en el mercado de la informática como una opción económica y efectiva al momento de diseñar, ampliar, y actualizar tecnología de Centros de Cómputos, al punto de que en muchos casos si no se elige la virtualización, se estaría perdiendo dinero y/o la implementación podría ser menos efectiva.
¿Qué es Virtualización? Aunque este es un tema el cual se ha ampliado grandemente en estos últimos años, básicamente virtualización es una tecnología que te permite instalar y configurar múltiples computadoras y/o servidores completamente independientes (conocidas como “virtual machines” o “maquinas virtuales”) en una sola “caja” física, ya sea una computadora, servidor, “appliance”, etc. A pesar de que estas maquinas virtuales comparten todos los recursos de un mismo “hardware”, cada una trabaja de manera totalmente independiente (con su propio sistema operativo, aplicaciones, configuraciones, etc.). En otras palabras, en lugar de utilizar 5 servidores físicos, cada uno de ellos corriendo una aplicación que solo utiliza el 10% de los recursos de su servidor; podemos instalar 5 maquinas virtuales, cada una con su propia aplicación y configuraciones específicas, en un solo servidor y utilizar el 50-60% de los recursos del mismo. Cabe señalar que cada una de estas maquinas virtuales, con la debida configuración, deberá funcionar exactamente igual que un servidor o PC física (podrás conectarlo a una red, ingresarlo a un dominio, aplicarle políticas de seguridad, conectarte de manera remota, darle “restart” de manera independiente, etc.). Al final obtenemos una implementación que será:
  • Más económica – Requiere menos hardware, menos electricidad, menos enfriamiento, menos espacio, menos infraestructura, y menos tiempo de administración. Todo esto al final se traduce en menos dólares y centavos (o pesos, bolívares, soles, o cualquiera que sea su moneda local).
  • Menos compleja – Por las mismas razones mencionadas en el punto anterior.
  • Consume menos energía y espacio – Si te interesa el medio ambiente y quieres hacer de tu empresa una “Go Green”, o si tu empresa cuenta con poco espacio para “server racks”, la virtualización podría ser una excelente opción para tu próximo “technology refresh”.
  • Más segura – Con los niveles de seguridad adecuados, una red virtual cuenta con menos puntos de ataque físicos, lo que la hace más segura. En adición a esto, la vitalización es una excelente estrategia de seguridad al momento de elaborar un “backup plan” o un “disaster recovery plan”.
  • Más fácil de administrar – Con el debido conocimiento de virtualización y evitando el conocido “temor al cambio”, administrar una red virtual debe ser más sencillo que administrar una red regular.


No hay comentarios:

Publicar un comentario