Avec l'Utility Computing,
la salle blanche d'une entreprise risque fort de ressembler
à un pot de yaourt vide. Disparues les batteries
de serveurs, envolés les systèmes de stockage :
le vent du changement n'a épargné que le
réseau ethernet et les postes clients. Mais où
est donc passé le coeur de l'infrastructure ?
Chez un prestataire, qui devient par conséquent
le principal responsable de la qualité du service
du système informatique. En résumé,
l'entreprise se souciera uniquement de la façon
d'utiliser la puissance du système, et non plus
de la façon de la produire.
Les avantages ? Ceux
de l'externalisation, à commencer par la flexibilité :
si la conjoncture se retourne, il est facile de se débarrasser
du coût d'une infrastructure outsourcée,
sans souci d'amortissement. A l'opposé, si l'activité
croît de façon spectaculaire, il est possible
de demander au prestataire une montée en puissance
rapide, sans risque de surinvestissement. De son côté,
le prestataire gère beaucoup mieux que ses clients
les aléas conjoncturels : il compense les
déboires de l'un par le succès de l'autre,
et maintient une activité relativement stable.
Big
Blue, évidemment
La
flexibilté a un autre atout : elle permet
au client de s'aventurer dans des expériences
plus risquées, puisqu'il peut se désengager
aussi facilement qu'il s'engage. Reste à savoir
si cet avantage se paye au prix fort. Et il semble que
non : les spécialistes de l'Utility Computing
revendiquent des prix moyens inférieurs à
ceux d'un système internalisé. Ce qui
se vérifie - dans certains cas - sur
le terrain.
Le concept de l'Utility
Computing a son gourou en la personne d'IBM, qui clame
que dans 20 ans la majorité des entreprises auront
massivement externalisé leur infrastructure informatique.
D'autres géants des services ont d'ailleurs emboité
le pas à Big Blue, sans toutefois tenir un discours
aussi radical.
Vrai/faux
Utility Computing
HP propose ainsi des services d'Utility Computing qui
diffèrent de ceux d'IBM. Avec HP, toute l'infrastructure
informatique demeure chez le client, mais les machines
sont télé-administrées. L'entreprise
ne paye que pour ce qu'elle utilise ... ou au moins
en a-t-elle l'impresion : HP n'ayant pas la possibilité
d'utiliser pour d'autres clients les ressources inemployées,
elle est obligée de facturer l'intégralité
du matériel, d'une façon ou d'une autre.
Chez HP, l'Utility Computing est donc réduit
à un simple modèle financier.
La méthode de Big
Blue est tout autre. Signe qui ne trompe pas :
la facture qu'IBM envoie à American Express pour
son infrastructure d'Utility Computing ne ressemble
à aucune autre facture. C'est une véritable
marque de fabrique : en sus d'un coût fixe,
on y trouve un taux variable pour l'usage des mainframes,
l'hébergement du web, la quantité de stockage
utilisée, le temps de hotline comptabilisé,
et surtout le nombre d'heures de calculs mobilisées
sur les processeurs d'IBM. Le client paye réellement
ce qu'il consomme.
Un pari
risqué
Ce tour de force a un coût pour IBM : le
géant doit régulièrement agrandir
ses parcs de ressources, qui sont conçus pour
être extrêmement flexibles, et pour pouvoir
accepter plusieurs clients sur chaque machine. Heureusement,
la conjoncture semble favorable aux ambitions de Big
Blue : la compagnie n'a qu'à se baisser
pour cueillir à faible coût les salles
blanches des opérateurs de télécom
en faillite...
Mais le pari demeure risqué :
reste à convaincre les clients potentiels qui
se posent une foule de questions pertinentes. Quelle
sera la qualité du service s'il est hébergé
à distance ? Qui prendra en charge le choix
et l'implémentation de l'infrastructure ?
Si c'est le prestataire, l'entreprise ne risque-t-elle
pas de perdre un précieux savoir-faire, et d'être
à la merci des choix technologiques de son fournisseur ?
(IBM pourrait par exemple profiter de sa position pour
faire payer ses développements au prix fort,
et pour imposer son offre logicielle). N'est-il pas
gênant de laisser des informations stratégiques
transiter par les salles blanches du prestataire ?
Ses infastructures sont-elles résistantes aux
attaques informatiques ? Autant de points sur lesquels
IBM va devoir rassurer.
Le marché
décolle à peine
En attendant, le marché de l'Utility Computing
peut être qualifié de "niche commerciale".
Aucune entreprise n'a opté pour une externalisation
complète, et la plupart des marchés remportés
concernent seulement l'un des trois pôles majeurs
d'une infrastructure : le stockage, la gestion
du réseau et la gestion des ordinateurs.
IBM est le seul à
maîtriser les trois, mais chaque pôle a
son spécialiste : Inkra Networks s'est fait
un nom dans l'outsourcing des problématiques
réseau ;
Jareva,
Moonlight, Terraspring et Think Dynamics ont une compétence
reconnue pour la gestion des ordinateurs. Storage Networks
est le spécialiste de l'externalisation du stockage.
Un coup
de Poker pour IBM
La bataille de l'Utility Computing ne fait donc que commencer.
La première cible d'IBM sera celle des très
grandes enteprises - qui sont particulièrement
demandeuses d'externalisation. Le coeur de cible :
les grands comptes pour qui l'informatique n'est
pas la ressource la plus stratégique, et qui prévoient
un grand changement d'architecture sous peu. Ce sont eux
qui décideront de l'avenir de l'Utility Computing.
Et sans doute aussi un peu de la santé d'IBM -
extrêmement impliqué dans cette aventure.
|