Quelle sécurité pour la virtualisation ? Jerome Saiz le 23 février 2008 à 20h13, dans la rubrique Produits & Technologies Commentaires fermés sur Quelle sécurité pour la virtualisation ? eric domagele cercleles assisesvirtualisation Quelle sécurité pour les environnements virtualisés ? C’était la question posée aux RSSI membres du Cercle Européen de la Sécurité et des Systèmes d’Information. Bilan : si la virtualisation ne change pas les bonnes habitudes en matière de sécurité, elle oblige à de meilleures pratiques. Soixante pour cent des machines virtuelles existantes seraient moins sécurisées que leur équivalent physique. C’est sur cette indication que s’ouvrait hier soir le dernier débat en date du Cercle Européen de la Sécurité et des Systèmes d’Information. Mais c’est aussi pour améliorer la sécurité que les entreprises virtualisent, si l’on en croit IDC venu livrer quelques chiffres sur le sujet. Les entreprises passeraient-elles donc à côté de quelque chose ? Oui, si l’on en juge la suite des débats : les témoins invités, tous pourtant engagés dans de très respectables projets de virtualisation, semblaient plus enclins à mettre en avant les gains opérationnels apportés par la virtualisation que ses éventuelles contraintes de sécurité. L’approche, cependant, peut se justifier : selon IDC toujours, la virtualisation est une technologie globale à traiter de manière globale, via notamment des analyses de risque formelles. Ce n’est pas faux, mais la recette s’applique potentiellement à n’importe quel autre pan du Système d’Information. Nos RSSI virtualiseurs ne s’en trouvent donc guère plus avancés. Les interventions des sociétés ETO (projet de virtualisation) et Ikoula (projet de para-virtualisation) ont cependant permis de faire avancer la cause de la virtualisation en pointant quelques avantages en matière de sécurité : Un serveur de lame peut héberger une centaine de serveurs virtualisés. Une fois correctement configuré, la création et suppression des serveurs se fait sans présence en salle machine, en quelques clics et avec un risque d’erreur moindre. Dans le cadre de services appelés à fonctionner 24/24, la mise à jour des système est facilitée. Il est possible de cloner un serveur, de corriger l’original puis de le remplacer. Par ailleurs ETO utilise la solution de patch virtuel de Bluelane , qui simplifie encore largement la gestion des correctifs. Gain en homogénéité : un serveur virtuel peut être cloné pour en créer un nouveau parfaitement identique. « Jusqu’à présent, on pouvait acheter deux serveurs identiques le même jour, ils avaient deux versions de firmware différentes », observe Francois-Xavier Ousselin, Co-fondateur d’ETO. Homogénéité, toujours : le déploiement de nouveaux serveurs peut se faire sur la base d’une image déjà blindée à minima. Un atout que les témoins ont largement mis en avant alors que cela est déjà possible avec des images disques. La virtualisation marque semble-t-il un progrès dans ce domaine. Des PRA simplifiés : un serveur et ses données n’étant plus qu’un vulgaire fichier, il est bien plus simple de sauvegarder ce dernier et de le faire tourner n’importe où, par exemple sur une nouvelle machine virtuelle montée rapidement après un sinistre. La sécurité impacte moins la production dans un environnement virtualisé : outre l’application simplifiée des correctifs et le PRA, les témoins ont trouvé pratique de pouvoir déplacer immédiatement une machine sans impacter la production (voire sans lui demander son avis !). Après ce plébiscite, nos témoins ont toutefois su pointer les inconvénients de la virtualisation. Hélas, comme pour ses avantages, les points abordés sont essentiellement opérationnels et guère sécuritaires : L’architecture matérielle doit être puissante et haut de gamme pour être stable. L’économie ne paie pas lorsqu’on décide de virtualiser. Il faut investir dans des serveurs, des SAN et des systèmes de cache haut de gamme. Et redonder le tout. Car la virtualisation peut s’avérer un redoutable Single Point of Failure le jour où un hyperviseur chargé d’animer une centaine de serveurs se décide à tomber… Les compétences techniques nécessaires pour bien virtualiser sont supérieures à celle de l’administration des systèmes traditionnels. « Il faut du temps et de la compétence pour régler correctement l’hyperviseur, le SAN et le réseau ensembles », reconnait Francois-Xavier Ousselin. Nécessité d’une organisation accrue dans l’entreprise. Notamment en ce qui concerne le Help Desk et la gestion du changement, deux services fortement mis à contribution lorsque le nombre de serveurs mis en production est susceptible d’exploser. Bref, mieux vaut avoir une idée d’ITIL. Attention à l’adhérence au processeur : les fondeurs intègrent des fonctions étroitement liées à la virtualisation au coeur de leurs processeurs. Changer de fournisseur peut alors s’avérer compliqué. La para-virtualisation évite cependant cet écueil, mais les systèmes sont en contre-partie bien moins isolés les uns des autres. L’isolation, justement, était le grand absent du débat. Ni les témoins ni les experts présents (VMware, Microsoft, Parallels, Citrix) n’ont réellement abordé la question. Seul conseil de Francois-Xavier Ousselin, d’ETO : le recours à la virtualisation ne change pas les bonnes habitudes de sécurité. Les serveurs doivent être isolés comme il se doit grâce à une architecture correctement conçue. Rien de bien nouveau, donc si ce n’est que pour être fiable, un environnement virtualisé doit s’appuyer sur une sélection plus rigoureuse du matériel, sur des pratiques d’entreprise proches d’ITIL et exige un plus haut niveau de compétence. La question des spécificités sécuritaires liées à la virtualisation demeure, elle, ouverte. Vous avez aimé cet article? Cliquez sur le bouton J'AIME ou partagez le avec vos amis! Notez L'article Participez ou lancez la discussion!