skip to Main Content
01 83 79 95 95 contact@voxy.fr

La virtualisation tient-elle ses promesses ?

promesseLa vague irrésistible du Cloud Computing a été rendue possible notamment par la possibilité de virtualiser de très nombreux systèmes : applications, bases de données, messagerie, postes de travail, etc. Les environnements de virtualisation, et particulièrement VMWare, permettent en effet de répliquer à peu de frais des systèmes existants afin de répartir et distribuer leur charge sur plusieurs matériels voire en plusieurs lieux. On augmente ainsi selon les cas :

  • leur disponibilité : transfert de l’activité sur des systèmes secondaires en cas d’incident ou pour effectuer une maintenance
  • leurs performances : réplication aisée et possibilité de fournir plus de puissance de traitement à une application durant les heures de pointe
  • leur rentabilité : un matériel unique pouvant héberger plusieurs systèmes, on peut économiser des frais de mise en œuvre et d’hébergement

Ces possibilités sont indéniables mais ne peuvent pas toujours être atteintes. De plus, on entend souvent évoquer d’autres bénéfices que permettrait la virtualisation. Qu’en est-il exactement ?

  • Première idée fausse : la virtualisation réduirait la charge d’exploitation.
    Le nombre de systèmes mis en œuvre étant augmenté (systèmes hôtes + répliques de machines virtuelles), il y a évidemment plus d’objets à mettre en œuvre, à surveiller, à administrer et à dépanner. De plus, la virtualisation nécessite des compétences supplémentaires pour mettre en œuvre les moyens de redondance, de détection de panne et de secours, connaissances qui nécessitent une formation continue ou le recours à des spécialistes. Cela ne peut conduire qu’à une augmentation de la charge de travail !
    Ce qui est vrai, c’est que la virtualisation peut, dans certains cas, réduire les frais d’achat  de matériels, d’hébergement et de maintenance. Si l’on parvient à implanter plus d’applications sur un nombre réduit de matériels, ceux-ci occupent moins de surface, consomment un peu moins d’énergie, l’utilisation des moyens de stockage et de sauvegardes est plus intensive (il y a moins de capacités inutilisées), la maintenance et le renouvellement des matériels sont moins fréquents.
  • En revanche, la virtualisation permet d’accélérer un grand nombre d’opérations, notamment pour faire face à une situation ponctuelle : maintenance sur un système en production 24h/24, remise en service sur un matériel différent , test d’une nouvelle version de programme ou d’une évolution de paramétrage …
  • Deuxième idée fausse : une fois virtualisée, une application pourrait être répliquée sans contraintes.
    Très peu d’applications ont été conçues pour être dupliquées et réparties en plusieurs points. S’il est généralement aisé de répliquer les programmes de traitement, le plus souvent les bases de données ne peuvent être gérées que par un seul serveur (les réplications, synchrones ou asynchrones, sont la plupart du temps des copies de secours sur des systèmes passifs). La réplication est néanmoins possible, mais induit des études et des solutions complexes pour permettre le fonctionnement alterné ou en parallèle de plusieurs systèmes.
  • Troisième idée fausse : la virtualisation permet d’augmenter les performances d’un système.
    Ceci n’est possible que si l’application a été entièrement conçue pour fonctionner sur plusieurs instances parallèles. À matériel identique, un système natif est toujours plus performant que son clone virtualisé, malgré toutes les optimisations qui sont proposées par les fournisseurs.
  • Quatrième idée partiellement fausse : un système virtualisé est plus fiable. Le logiciel de virtualisation qui est ajouté, même s’il est très fiable, est un composant supplémentaire de l’installation qui introduit donc des risques de défaillance additionnels. Il ne devient fiable que si l’on a très soigneusement configuré toutes les options de virtualisation et mis en place des mécanismes de réplication, de synchronisation ou de sauvegarde bien testés. Une machine virtuelle implantée sur un matériel unique ne connait pas moins de défauts ou d’incidents du fait de la virtualisation. Néanmoins, si l’on dispose de sauvegardes fiables (c’est-à-dire dont on vérifie fréquemment qu’elles peuvent être restaurées), et suffisamment nombreuses (pour éviter de retrouver une machine déjà corrompue), sa remise en service est facilitée et donc le délai de réparation peut être réduit.
  • Avantage insuffisamment évoqué : la virtualisation permet souvent de réduire considérablement délais et coûts de mise en œuvre.
    Bien entendu, la réplication est beaucoup plus rapide à partir de machines virtuelles qu’entre systèmes liés au matériel. Mais aussi, de plus en plus de fournisseurs proposent des modèles de machines (ou appliances) virtuelles qui sont déjà pleinement opérationnelles et optimisées : serveurs de fichiers, de messagerie, de réseau (DHCP, DNS), antivirus, antispam, bases de données et même firewalls. La charge d’adaptation aux conditions particulières d’exploitation est bien moindre que celles d’installation et de paramétrage complets du système d’exploitation, des différents composants applicatifs, bases de données etc. De plus, elle permet de mettre en service des logiciels sans même disposer des compétences correspondantes, compétences qui ne seront peut-être pas nécessaire pour leur exploitation.
  • Enfin, cinquième idée fausse : la virtualisation est avantageuse même pour de petites installations.
    Cette affirmation n’est exacte que si l’entreprise dispose d’au moins deux ou trois serveurs de production et qu’elle a besoin de les répliquer dans le cadre d’un plan de secours ou pour des évolutions complexes. Dans les autres cas, un matériel de secours, une bonne solution de sauvegarde et un suivi régulier demeurent aussi efficaces et bien moins onéreux.

Quels sont donc les cas d’utilisation les plus appropriés de la virtualisation ? La liste qui suit n’est bien sûr pas exhaustive mais représente les situations les plus fréquemment rencontrées dans les grandes, moyennes et petites entreprises :

  • Systèmes à haute (voire très haute) disponibilité, qu’on doit pouvoir maintenir en activité sur plusieurs matériels et, lorsque possible, en plusieurs lieux. Si les flux de nouvelles données et l’éloignement le permettent, de tels systèmes peuvent fonctionner simultanément et ainsi assurer un service continu sans que l’arrêt d’un matériel ou d’un site ne soit perceptible pour les utilisateurs (continuité). Dans les autres cas, on parlera plutôt de plan de reprise, le transfert d’activité entre un matériel de production et son équivalent de secours pouvant nécessiter quelques minutes d’interruption.
  • Augmentation de la fréquence ou réduction des durées de sauvegarde : beaucoup d’anciens serveurs dotés de capacité de stockage interne et associés à des moyens de sauvegardes sur bande ne peuvent être sauvegardés que la nuit et parfois ces sauvegardes s’étendent jusqu’aux premières heures de la matinée. En les virtualisant on bénéficie le plus souvent de possibilités de sauvegarde rapides (snapshots, réplications sur disques). En cas d’incident, le nombre d’heures de travail perdues en sera d’autant réduit. De plus, les applications sont disponibles plus longtemps.
  • Systèmes évoluant fréquemment, comme le font la plupart des grandes entreprises pour leurs applications métier : les programmes sont modifiés fréquemment et nécessitent des tests approfondis avant de remplacer les versions précédentes. La virtualisation permet dans de tels cas de valider les nouvelles versions dans les conditions parfaitement identiques à celles de la production, notamment en ce qui concerne le matériel et les performances (quantités de données, vitesses de traitement ou de transfert), en profitant au mieux des périodes creuses.
  • Applications d’entreprise non déployées sur les postes de travail, parce que les utilisateurs sont nombreux et/ou très dispersés, ou parce que l’application évolue fréquemment : ceci correspond principalement à des applications non web, que l’on implante sur des postes de travail virtuels (à l’origine des fermes de serveurs TSE ou Citrix, désormais solutions « VDI »), que l’on peut multiplier et modifier à très faibles coûts et délais.
  • Applications nécessitant de grandes capacités de stockage ou de grandes puissances de traitement pendant des durées limitées ; c’est le cas par exemple de programmes effectuant des traitements très importants – calculs scientifiques, consolidation ou analyse de grandes quantités de données – en début ou fin de période, ou à des heures précises dans la journée. Le reste du temps les ressources système sont libérées pour d’autres utilisations.

Back To Top
Rechercher