"Il faudra deux ou trois
ans pour que le grand public puisse accéder à
la grille globale", nous déclarait en août
2001 Daron Green, directeur de la grille pour l'Europe
chez IBM. Dans
un article présentant ces technologies de
partage de capacités distribuées entre
ressources distantes, le porteur du projet évoquait
un certain nombre d'applications possibles dans les
grandes entreprises, en particulier dans les domaines
de la gestion du cycle de vie des produits et de la
recherche pharmaceutique. Et précisait que ni
le géant de l'informatique ni la Communauté
Européenne n'auraient investi des milliards d'euros
si le champ de ces technologies devait demeurer restreint
au monde scientifique.
Big Brother is watching hackers
and viruses
Seulement huit mois plus tard, la situation
a bien évolué. Si le grand public n'a
pas vraiment accès directement à la grille
globale pour son usage personnel, des services en appui
sur
ces
technologies commencent à éclore chez
certains éditeurs. Cette semaine, par exemple,
McAfee.com
a dévoilé un plan ambitieux baptisé
Grid
Security Services. Sous la forme d'une gamme d'outils
en ligne, celui-ci vise à développer un
réseau virtuel entre ressources partagées
pour améliorer la sécurité d'Internet
tout autour de la planète. L'ASP spécialisé
détenu en majorité par Network Associates - avec
une structure en partie distincte de celle de l'éditeur
McAfee aussi filiale de NAI - s'appuie en cela
sur les technologies de grille, et le standard SOAP
(Simple Object Access Protocol) pour la communication
entre Web Services. Et qui bénéficiera
de la mise en oeuvre de ces technologies d'avant-garde
? Les particuliers et les PMEs...
Mais à quoi peut bien
servir cette grille de sécurité mise en
place par McAfee.com ? L'opération a pour but
d'alerter plus vite les personnes qui se seront inscrites
gratuitement sur son site des débuts de cyber-menaces
selon leur niveau réel de dangerosité
et leur caractère répétitif. Une
fois enregistré, l'utilisateur télécharge
une suite d'outils de protection et de capteurs entourant
un composant central: SecurityCenter. Sur le volet de
la protection, il se retrouve équipé de
tout un arsenal comprenant anti-virus, pare-feu, détection
d'intrusion avec traçage de l'origine de l'attaque,
filtrage d'e-mails abusifs, et protection d'identité.
De leur côté, les senseurs servent à
réceptionner les alertes envoyées suite
à la détection d'une menace chez un ou
plusieurs autres utilisateurs. Ils ont également
pour but d'envoyer les alertes générées
par les kits de surveillance répartis de part
et d'autres, vers le coeur du dispositif chez McAfee.com
: le "Grid Nucleus". Les informations échangées
sont normalisées au format Grid Exchange Language
spécifié en XML, SOAP s'occupant de leur
transmission. Au niveau du "noyau de la grille"
sont effectuées les analyses des risques à
partir des données récoltées, des
correctifs étant développés dans
la foulée. De la sorte, tout le réseau
virtuel formé par les PC des personnes inscrites
au service bénéficie de l'expérience
de chacun.
HP exploite la grille sur des
datacenters "plug'n'play"
A l'heure actuelle, McAfee.com semble être
le seul acteur - à part les associations de lutte
contre les maladies comme le cancer - à faire
participer le grand public à un partage des ressources
sur la grille globale. Mais dans les huit mois écoulés,
l'on a vu apparaître en parallèle d'autres
initiatives lancées par d'importants éditeurs
et équipementiers à destination des grands
comptes principalement. Selon les informations que nous
avions obtenues l'été dernier auprès
d'IBM, la tendance se vérifie donc et les entreprises
sont dans les temps.
Parmi les applications des technologies de grille en
grandeur réelle figure leur combinaison avec
des centres d'hébergement automatisés
à la mode HP, baptisés UDC
pour Utility Data Center. L'autre géant a
procédé à son annonce la semaine
dernière. Selon Gartner cité par le
communiqué, celui-ci aurait pris 18 mois
d'avance sur le marché grâce à la
mise en commun de ces techniques. Pour résumer,
Hewlett Packard semble avoir trouvé le moyen
de rassembler des milliers de serveurs au sein d'un
unique cluster. Cette gigantesque "grappe de serveurs"
constitue un moyen de partager un grand nombre de ressources
physiques pour mieux répartir la gestion des
tâches entre les capacités disponibles
(CPU, stockage...) au sein de l'ensemble aggrégé.
La grille intervient ici comme une répartition
virtuelle complémentaire des ressources comme
le temps de calcul entre les processeurs situés
sur des machines qui peuvent être distantes, et
ce dans des délais records.
Dans le même temps, la combinaison avec le logiciel
d'administration centralisée OpenView de HP,
mis au goût du jour, apporterait des possibilités
d'automatisation inespérée dans la prise
en compte dynamique des changements survenant au sein
de l'infrastructure. Le géant serait ainsi capable
de fournir des centres d'hébergement clef en
main avec des niveaux de sécurité et de
disponibilité inégalés. L'objectif
de HP est clair : étendre l'informatique de grille
à un usage commercial.
Sun Grid Engine après
le rachat discret de Gridware
Or, IBM et HP ne sont
pas les seuls sur ce créneau. Pendant que ces
deux-là travaillaient de leur côté
sur le développement de ces technologies en interne,
le concurrent Sun Microsystems procédait à
une acquisition au cours du mois de juillet 2000, celle
de l'éditeur Gridware. Depuis ce rachat, le produit
Codine 5.1 de ce dernier s'est intégré
dans l'offre du troisième géant et porte
désormais le nom Sun
Grid Engine. Téléchargeable gratuitement
pour Linux et Solaris sur le site de l'éditeur,
l'outil en question présente un but similaire
de celui évoqué par HP: constituer des
grappes (=clusters) de ressources distantes, logicielles
et matérielles, pour en optimiser l'utilisation.
D'après Sun, il serait ainsi possible sur un
ensemble de ressources mises en commun d'exploiter jusqu'à
98 % de capacité supplémentaire.
On croit rêver...
Le modèle gratuit autour de cet outil n'est pas
sans rappeler celui du kit d'intégration et de
développement d'applications de grille Globus,
sponsorisé par IBM, Microsoft et Cisco. Pour
Big Blue, mais également Sun et HP, il faut en
passer par là pour que la grille soit démocratisée
partout. En attendant, ce modèle n'est pas celui
de tous les acteurs impliqués à fond dans
ces technologies. Parmi ceux-ci, un éditeur canadien
du nom de Platform
Computing qui dispose de bureaux et de représentations
un peu partout dans le monde, et en France notamment.
Celui-ci a repris à son compte le kit de développement
Globus et vient d'en sortir la version bêta d'une
toute nouvelle mouture qui, elle, sera payante. Adieu
donc le modèle gratuit.
OLAP et data mining distribué
en temps réel ?
L'éditeur a pourtant signé
des alliances globales avec notamment HP, IBM et Sun,
mais aussi Compaq, SGI et SAS. Plus récemment,
il vient d'annoncer un partenariat technologique OEM
avec Cognos. Il faut dire que les offres de Platform
Computing se destinent principalement à des grands
comptes de l'industrie et de la finance. D'où
l'implication progressive des acteurs de la business
intelligence. Pour SAS, le domaine de la grille n'est
pas nouveau car l'éditeur sert les intérêts
de nombreuses communautés scientifiques dans
le monde avec ses outils statistiques. Pour Cognos,
il est peut-être plus récent même
s'il est difficile de connaître en profondeur
le contexte des contrats signés avec ses clients.
Et même si les applications tournent encore autour
du design collaboratif de produits, ou de la recherche
et du développement, elles s'étendent
au monde financier comme le montrent les quelques clients
de ce type, minoritaires dans la liste sur le site de
Platform. Des clients qui, toutes catégories
confondues, comprennent la Deutsche Bank, Alcatel, Airbus,
EADS, PeugeotCitroën, Renault, ElfTotalFina et
même le studio de production cinématographique
DreamWorks de Steven Spielberg. Et bientôt, l'entreprise
de la grande distribution, par exemple, pourra aussi
profiter des technologies de data mining suivant un
mode de calcul et de stockage distribué. Il sera
ainsi possible d'effectuer des opérations complexes
sur des volumes de données très importants.
Peut-être alors parlera-t-on d'applications analytiques
et de data mining en temps réel.
|