13/04/01
Jean-Michel Planche, Witbe: "Nous
avons recréé un backbone de mesures externe"
Retrouvez
ici
tous
les articles du dossier consacré à la mesure
de la performance
Web
Née au cours du premier semestre 2000, Witbe
s'est rapidement développée en lançant
dès le mois de juillet de la même année
son service Mywitbe, qui permet aux entreprises de personnaliser
la mesure d'audience et de performance de leurs services
Internet. D'un positionnement de prestataire, orienté
vers la mesure de la qualité de service des sites
web, l'entreprise évolue à présent
vers une double casquette, à la fois société
de services et revendeur de sa technologie en mode ASP (location
d'applications en ligne) ou directement installée
chez le client. A l'inverse de certains compétiteurs,
le prestataire incontournable du secteur développe
en effet sa propre technologie de surveillance réseaux.
Aujourd'hui, Witbe communique notamment sur de nouvelles
offres consacrées à la surveillance de la
qualité des messageries Internet et intranet. Dans
le cadre de notre dossier sur la mesure de la performance
des sites web, son P-D.G. Jean-Michel Planche nous apporte
son point de vue sur la question et tente d'ouvrir de nouvelles
perspectives.
JDNet
Solutions : Comment le besoin s'exprime-t-il en rapport
avec la mesure de la performance des sites web ?
Jean-Michel Planche : Sur le plan philosophique,
nous pouvons constater plusieurs niveaux de problématiques
simplement en nous intéressant au besoin de l'entreprise
elle-même. Parfois, celle-ci n'est même pas
sûre qu'elle a besoin de ce type de système.
Nous constatons souvent que les responsables dans l'entreprise
ne savent pas si leur service fonctionne, s'il est performant
et s'il est intègre. Or, ce sont vraiment là
les trois principaux problèmes qui peuvent survenir.
Donc, d'une part l'entreprise n'est pas forcément
consciente. Et, d'autre part, les responsables peuvent imaginer
qu'ils disposent déjà des outils en interne.
Or, notre position est de dire que tout le monde est touché,
aussi bien l'entreprise, que son ISP et son opérateur.
Mais traditionnellement, les entreprises appréhendent
la mesure en supervisant leur réseau interne.
Face à cette demande
un peu confuse, comment l'offre se comporte-t-elle ?
Ce que je viens d'évoquer, c'est à
dire la "supervision inside", représente
la première génération des acteurs,
dont les outils situés à l'intérieur
de l'infrastructure regardent si le système fonctionne.
Dans ce cadre, il est possible d'obtenir une certaine vision
des problèmes lorsque le site est hébergé
ailleurs dans un centre, mais s'il est installé en
interne, la vision est forcément polluée.
Or, la plupart de nos concurrents sont issus de cette approche
centrée sur l'obligation de moyens et non de résultats.
Avec la deuxième génération, les acteurs
comprennent bien qu'il n'est pas suffisant de surveiller
depuis sa propre fenêtre, mais qu'il faut aussi regarder
le système depuis l'extérieur, c'est à
dire en se mettant à la place des clients. Aujourd'hui,
c'est ce que font tous nos concurrents. Qualiope, IPLabel,
Keynote... sont tous issus de cette deuxième génération
que j'appellerais la "supervision outside". Déjà,
c'est un progrès, mais il s'agit seulement de mesurer
la disponibilité d'un opérateur par rapport
à un site. Et cette mesure reste perturbante, car
si le trafic transite par un autre opérateur qui
rencontre des problèmes, les mesures ne seront pas
capables de le prendre en compte. Il s'agit en fait d'une
évolution de la première vers la deuxième
génération. Les prestataires qui en sont issus
essaient souvent de revendre en mode ASP des solutions qui
étaient auparavant de manière générale
internalisées dans l'entreprise.
Et dans tout cela, quel est
votre positionnement ?
Witbe représente la troisième
génération. Notre modèle est la "supervision
upside-down". Plutôt que de placer des sondes
chez l'opérateur, nous le faisons venir à
nous. Le premier intérêt réside dans
le fait de disposer moins de serveurs autour de la planète.
A Paris, nous avons notre propre plate-forme, et non des
serveurs chez chaque opérateur. De fait, notre service
coûte moins cher.
Et puis, nous ne pouvons pas mesurer Internet sans en faire
partie. Or, tous ceux qui placent leurs machines chez des
opérateurs n'en font pas partie, car ils subissent
les politiques de routage de ces derniers et n'ont pas la
capacité de fournir une information intelligente
au client. Par exemple, si une panne survient chez UUnet
où sont situées les sondes du prestataire,
la question est de savoir si l'internaute pourra se connecter
au site de la Fnac. Or, si son fournisseur d'accès
est France Télécom, la Fnac sera toujours
disponible pour celui-ci, mais peut-être pas pour
un autre internaute.
En quoi votre position externe
apporte-t-elle plus de pertinence aux mesures ?
Nous avons recréé un backbone
de mesures externe avec un numéro AS (Autonomous
System), et nous avons trouvé un moyen de recevoir
les routes de nos pairs. Par exemple, si France Télécom
est en panne, tout le trafic passe par Level 3. Et nous
ne pourrions pas nous permettre d'effectuer des mesures
si un opérateur était en panne. Donc, soit
il s'agit d'une panne franche et nous le diagnostiquons,
soit il s'agit d'un problème touchant une partie
du réseau Internet et nous passons par un autre endroit.
Mais dans tous les cas, il faut que nous soyons au courant.
Et c'est pourquoi nous avons mis en place un réseau
dit "upside down".
Avez-vous définis des
critères standards de qualité de service pour
les sites web ?
Pas en terme de chiffres. Lorsqu'un internaute
clique sur une bannière, l'annonceur ne veut pas
que son site s'affiche en une minute mais plutôt en
trois secondes. Et là, la règle des 8 secondes
peut s'appliquer. Mais s'il s'agit d'une consultation de
son compte sur une banque en ligne, le fait que le temps
de réponse soit de 8 ou de 30 seconde lui
importe peu. Selon la nature du service, l'internaute sera
plus ou moins exigeant sur la vitesse d'affichage de la
page.
En revanche, tous sont exigeants sur le fait que le service
fonctionne et que la réponse doit être exacte.
Là, il s'agit de véritables standards, car
personne ne peut accepter qu'un site soit en panne. La performance
tient plus de la politique de qualité de service
de l'entreprise par rapport à sa cible, à
la fois en fonction de ses moyens financiers et de ses ressources
en interne. Nous appelons cela la nouvelle démarche
de qualité de service en environnement IP. Notre
volonté consiste donc à aider l'entreprise
à développer cette démarche en ayant
les outils qui permettent de traiter les dysfonctionnements.
Et s'il faut "amputer le cerveau", nous travaillons
avec des spécialistes de la sécurité
et du développement. Nous effectuons des préconisations,
et nous mettons notre client en relation avec tous les intervenants.
On entend parfois qu'Internet
est tellement complexe que tous les problèmes ne
peuvent être évités. Qu'en pensez-vous
?
Internet est en effet très sensible
aux effets de bord. A un moment donné, tout peut
être remis en cause. Il n'y a qu'à voir les
pannes de Yahoo ou de Microsoft pour appréhender
cette sensibilité aux effets de bord. Par exemple,
je peux vous citer une annecdote sur un grand de la place
à Paris, qui a vécu une panne de 17 heures
que nous avons pu diagnostiquer en 5 minutes. En interne,
ils étaient équipés de tous les outils
nécessaires, les BMC Patrol, les Micromuse, etc.
Leur serveur de noms de domaine était planté
à l'extérieur et n'annonçait plus les
adresses IP. Mais de l'intérieur, tout semblait fonctionner,
sauf que les caches ne marchaient plus. Ils n'avaient aucune
solution pour superviser les DNS, et ça, Witbe le
fait. Aujourd'hui, si vous ne disposez pas d'un backbone
pour appréhender le problème depuis l'extérieur
et produire un diagnostic, vous êtes plantés
pendant des heures et vous ne comprenez pas pourquoi.
Certains prestataires proposent
de mesurer la qualité d'expérience vue de
l'internaute en plaçant des sondes directement chez
eux...
...et bonjour les effets de bord ! D'abord,
si l'internaute est équipé d'un 386 avec modem,
comment mesurer avec des machines qui rament ou qui sont
éteintes pendant 22 heures ? Ensuite, est-ce
qu'une personne équipée d'une liaison ADSL
avec un câble pourri va produire des mesures pertinentes
? Franchement, je ne pense pas. Il s'agit d'une fausse bonne
idée. C'est intéressant pour s'amuser quand
les associations d'usagers du câble mesurent la qualité
des réseaux câblés. Mais un vrai professionnel
doit pouvoir maîtriser les routes de l'Internet, sans
quoi il ne trouvera pas la solution. Celle-ci, qui doit
être la moins mauvaise possible, doit aussi être
trouvée tout de suite. Et comme Internet se compose
de plus de 40 000 réseaux majeurs, et qu'il
est impossible de placer des serveurs sur tous ces réseaux,
il n'est pas possible d'appréhender la qualité
de service avec des outils de bout en bout.
Pouvez-vous nous citer un exemple
d'une vue à la fois plus globale et plus détaillée
que vous pouvez fournir grâce à votre backbone
de mesure ?
A partir du moment où nous travaillons
avec notre réseau "upside down", nous pouvons
mesurer depuis Witbe quel est le véritable niveau
de service. Nous savons, à travers une simulation
de liaison par modem classique, comment le site sera vu
depuis Free, Wanadoo ou Liberty Surf. Et cela peut rentrer
en ligne de compte lorsque, par exemple, l'entreprise trouve
étrange que seulement 500 internautes se plaignent.
C'est bien pour cela que notre backbone est aussi bien interconnecté
à des liaisons haut débit, qu'au RTC et à
Numéris. Nous pouvons simuler des connexions en passant
par les uns et les autres. Et je peux comparer comment le
site de la Fnac sera vu par les abonnés de Liberty
Surf et par ceux de Wanadoo.
Quelles technologies employez-vous
pour les mesures ?
Nous sommes 100 % propriétaires
de notre technologie. Quand une société se
lance dans ce type de prestations, elle commence par chercher
des outils du commerce. Mais en général, ceux-ci
proposent de nombreuses fonctions dont il n'a pas besoin,
et ne proposent pas toutes celles dont il a réellement
besoin. Le plus souvent, ils intègrent tellement
de fonctions qu'ils ne répondent plus au besoin primaire.
Du coup, ces produits sont utilisés par des personnes
aux responsabilités précises, et le prestataire
développe ses propres robots de mesure. Mais à
un moment donné arrive un nouveau protocole, et il
n'est pas possible de tout refaire en R&D. Du coup,
nous avons dit stop et nous avons préféré
développer nos propres outils, qui vont beaucoup
moins loin dans les détails qu'un Micromuse, mais
beaucoup plus loin dans la pertinence. Nous sommes incapables
de vous dire combien de cellules ATM ont été
perdus, et nous nous en moquons car il s'agit d'un moyen
et pas du résultat. Nous préférons
de loin mesurer la qualité perçue par l'utilisateur.
Nous avons donc développé notre propre protocole
de mesure pour la qualité du réseau. La plupart
de nos concurrents utilisent des "ping", mais
en général, les routeurs sont configurés
pour ne pas traiter ceux-ci en priorité. Le protocole
Witbe, quant à lui, permet d'appréhender TCP,
UDP et ICMP, et de dire ensuite d'où provient la
panne, s'il s'agit d'un problème applicatif, de routage,
ou autre.
Que mesurez-vous ?
Côté applicatif, nous mesurons
la performance, la disponibilité et l'intégrité
en utilisant des protocoles existants. Il existe trois niveaux
de protocoles et l'ultime est le niveau applicatif. Nous
pouvons mesurer si l'interaction avec la base de données
au travers des pages dynamiques fonctionne correctement.
Car si un problème survient plus bas dans les couches,
la cause provient peut-être de la base de données.
Nous mesurons donc HTTP, et aussi DNS, car si une opération
est récurrente, elle crée un temps de retard
qui ne sera pas vu de l'intérieur, mais qui sera
perçu par l'internaute. La liste des protocoles auxquels
nous avons recours comprend SMTP, POP-3, DNS, HTTP et HTTPS.
Pour les protocoles à venir, nous travaillons sur
le broadband. Et nous allons bientôt annoncer que
nous pouvons mesurer la qualité du streaming.
En dehors de votre activité
de services, vendez-vous aussi vos applications ?
Notre technologie est mise en oeuvre sur
de grands intranets - qui sont comme le backbone pour une
entreprise - et chez des opérateurs. Lorsqu'ils achètent
la technologie, nous leur montons leur propre Witbe. Ensuite,
ils disposent d'une base de données type Oracle et
de logiciels de planification, ainsi que de toute la mécanique
en interne. Nous sommes ainsi présents sur l'un des
plus grands réseaux intranets de France. Dans ce
cadre, nous proposons 3 mois d'essai gratuit, et au
delà l'entreprise décide d'adopter ou non.
Et si nous intervenons maintenant de cette façon,
c'est parce que nous sommes tirés par la demande.
Vous représentez la troisième
génération. Quelle sera la quatrième
?
Nous devrions la retrouver dans la notion
de peer-to-peer avec des sondes chez les internautes. Mais
cela n'amènera rien de plus. L'utilisateur verra
par exemple qu'il n'est pas visible en Alaska septentrional.
Juste avant de fonder Witbe
l'année dernière, Jean-Michel Planche
a également créé début 2000
le fonds d'accompagnement de start-ups Tancred Venture,
qui a notamment financé à 100 % son projet
de société spécialisée dans
la mesure de la perfomance des sites web. En 1989, il lance
la SSII Apysoft spécialisée en ingénierie
des sous-systèmes ouverts, et signe un an plus tard
un partenariat avec l'Américain NeXT Computer visant
à intégrer la technologie Internet. Sur cette
base, il ouvre en 1991 une division baptisée Oléane
consacrée au développement d'offres IP destinées
aux entreprises. Devenue indépendante en 1993, la
société le restera jusqu'en 1998, année
de son rachat par France Télécom. A cette
occasion, Jean-Michel Planche est nommé directeur
de la branche Internet Entreprises de l'opérateur
historique français. Aujourd'hui, avec Tancred Ventures,
il participe entre autres au financement de sociétés
comme Algety Télécom et Netcentrex.
|