Comprendre la virtualisation

Comprendre la virtualisation

Le principe de base de la virtualisation est simple. L'idée est de faire fonctionner plusieurs systèmes d'exploitation sur une seule machine physique. Mais voyons d'un peu plus près comment cela fonctionne.

Les premières plateformes de virtualisation, appelées hyperviseurs, ont été conçues par IBM il y a une quarantaine d'années (voir aussi : les services de cloud computing). Alors qu'un OS est normalement associé à un hardware, l'hyperviseur va offrir à l'OS des ressources différentes de celles effectivement présentes. Il va de cette façon pouvoir isoler le système en utilisant une partie du matériel et ainsi le rendre complètement indépendant. L'évolution des technologies et de la puissance des différents composants fait que les ordinateurs actuels sont largement capables de supporter la présence de plusieurs systèmes d'exploitation.

Deux types de modèles sont à distinguer : bare-metal et host based. Le premier consiste à installer l'hyperviseur directement sur le matériel, à la manière d'un OS normal. Dans la seconde option, destinée aux environnements de test, la couche de virtualisation sera installée sur un premier OS, comme un logiciel.

Une fois l'hyperviseur installé, l'administrateur de la machine pourra provisionner des machines virtuelles, ou VM (Virtual Machine), en spécifiant de façon précise les ressources qui lui seront attribuées. Ces VM fonctionnent exactement de la même façon que des machines physiques et contiennent un OS, des applications et des données. L'intégralité de la VM est encapsulée dans des fichiers qui peuvent facilement être sauvegardés ou déplacés.

Disques locaux ou stockage centralisé ?

Le stockage des machines virtuelles peut également se faire selon deux architectures, l'une à disques locaux, l'autre avec stockage centralisé. La première est simple à mettre en œuvre et plus économique. Elle conviendra donc mieux à de petites entreprises pour ces raisons de compétences et de budget. Elle consiste à stocker les VMs sur les disques de stockage locaux du serveur. Celles-ci sont donc isolées chacune sur leur serveur et accessibles uniquement via ce serveur. L'inconvénient de cette solution est donc qu'en cas de panne, impossible de passer par un autre serveur pour lancer les VMs.

La virtualisation par stockage centralisé est donc plus chère mais garantit une meilleure disponibilité. Dans cette architecture, les machines virtuelles sont stockées sur une baie externe accessible depuis plusieurs serveurs. En cas de crash de l'un, l'autre pourra prendre le relais.

Concernant la mémoire, l'administrateur attribuera au moment de la création de la VM une certaine quantité de mémoire. Avantage de la virtualisation, le total de la mémoire attribuée virtuellement à chaque machine peut être supérieur à la mémoire physique effectivement présente. Une fonctionnalité qui fait la force de la plateforme ESX de VMware et qui est rendu notamment possible par le partage entre les VMs des pages mémoires identiques. La mémoire peut également être réattribuée de façon dynamique en cas de pic d'activité sur une des VMs. Un fonctionnement que l'on trouve sur le SP1 de Windows Hyper-V.

Les processeurs et éléments réseaux sont eux-aussi virtualisés. Nous verrons cela plus en détails dans un prochain article.

A propos

Ce site est édité par ITMEDIA et traite de la virtualisation en environnement Windows.