Utility Computing, Grid Computing, e-business On Demand : plusieurs facettes ou composants d'un service similaire qui consiste à considérer l'informatique comme une ressource comparable à l'électricité par exemple. Cinq questions pour mieux comprendre les avantages, le soubassement technique, l'offre commerciale... (Mercredi
22 octobre 2003)
> Grid Computing, Computing
OnDemand, Utility Computing... Quel rapport ? Le Grid Computing (technologie de "grille")
désigne la mutualisation des ressources informatiques, par exemple en répartissant
la charge de calcul sur un grand nombre de machines fonctionnant de concert, ou
en faisant du peer-to-peer, ou encore en associant des services applicatifs distribués.
Le tout fait appel à des logiciels pilotant les ressources et repartissant
les tâches.
L'Utility Computing est un concept avancé par IBM designant la possibilité
d'utiliser de la puissance de calcul, et plus largement de la ressource informatique,
en ne payant que ce que l'on consomme réellement (comme le gaz ou l'electricité).
Le terme est quasiment équivalent à l'idée de "Computing
On Demand" ou informatique à la demande, à ceci près
que l'Utility Computing désigne, pour simplifier, plutôt une prestation
d'externalisation tandis que le Computing On Demand designe plutôt un mode
de facturation.
>
La tarification du modèle obéit-elle à des règles
simples ? On peut se douter de la réponse
(négative)... Si l'on prend l'exemple des applications louées en
ligne (ASP), ou plus fondamentalement celui de l'hébergement (sec ou associé
à quelque forme de gestion applicative que ce soit), le coût d'accès
au service est généralement négocié au cas par cas,
ou du moins n'est pas fixé de manière globale.
L'informatique à la demande n'échappe pas à ce problème,
et même si elle permet potentiellement de réduire ses coûts
(du moins pour des entreprises dont ce n'est pas le métier de gérer
& optimiser l'infrastructure technique, et qui peuvent ainsi s'en décharger
- c'est d'ailleurs la définition même des apports de l'externalisation),
il reste encore à élaborer des mécanismes qui permettront
de clarifier les choses pour les clients et garantir une plus large adoption du
modèle.
> En termes logiciels,
qu'est-ce qu'implique l'informatique à la demande ? Nous l'avons vu, le principe de l'informatique
à la demande est celui de l'externalisation qui n'a rien d'une nouveauté.
Ce que le modèle ajoute, ce sont des technologies d'administration appropriées
pour les matériels et logiciels fournis "à la demande"
(serveurs, dispositifs de stockage, réseaux...).
Ces technologies influent inévitablement sur la facture finale, car elles
impliquent une supervision plus poussée des systèmes concernés
de la part du fournisseur du service. Par ailleurs, il faut pouvoir offrir au
client la visibilité sur sa "consommation de ressources" et donc
lui fournir également des outils de contrôle.
Tout ceci implique notamment l'utilisation de technologies de virtualisation (couche
d'abstraction entre la réalité "physique" et l'utilisateur),
technologie dont la mise en place impose de bien organiser les ressources du système
d'information. > Le domaine est-il
standardisé ? On ne peut pas vraiment dire cela, même
si, d'une part, les solutions de Grid Computing (laquelle permet de fournir des
services "à la demande"), sont basées sur un socle commun
(la boite à outils Open Source Globus), et si, d'autre part, il existe
un vocabulaire XML (qui n'a pas le statut de standard de jure), le DCML
(pour Data Center Markup Language) qui vise à réaliser l'interopérabilité
des applications mises en jeu par l'informatique à la demande.
Grand promoteur du DCML, l'ancien créateur de Netscape, Marc Andreessen
(aujourd'hui patron de la société Opsware), confiait récemment
à nos confrères d'Infoworld que les solutions IBM pour l'Utility
Computing restent en majorité un bloc certes cohérent, mais auquel
il est difficile voire impossible de greffer des briques d'autres fournisseurs.
Et le DCML doit donc servir de socle pour une communication accrue entre les infrastructures
applicatives concernées.
> En quoi l'informatique à
la demande contribue à mieux assurer la continuité de service ? Reinsistons sur le fait que les ressources
informatiques, dans le modèle, sont hébergées par des fournisseurs
qui, lorsqu'ils sont assez gros, disposent de plusieurs centres de données
répartis dans différents lieux géographiques. En conséquence,
en cas d'incident affectant l'un de ces centres de données, le service
peut-être maintenu grâce aux autres centres, s'il y a eu provisionnement
de celui-ci.
D'une manière générale, reposant très fortement sur
la supervision, la mutualisation, en sus de la constitution en "grille"
(intelligente) des ressources, les systèmes à la demande sont mieux
armés pour gérer la rupture d'une maille du service, surtout si
les serveurs sont équipés, en outre, de fonctions qu'IBM (encore)
met en avant sous le terme "autonomous
computing", à savoir des capacités, peut-être pas
d'autoréparation, mais au moins de diagnostic et d'ajout de capacité
additionnelle ou de basculement/réplication.