JDNet
Solutions : Où en sont les projets du W3C autour
du Web sémantique ?
Daniel Dardailler:
Nous avons
débuté les activités de Web sémantique
début 2001. Le Web sémantique consiste
à attacher aux contenus Web des meta-données
-en vue notamment d'automatiser certaines tâches
applicatives, telle que la syndication notamment. Nos
projets dans ce domaine visent d'abord à mettre
au point ces meta-données (baptisées RDF),
mais également à définir des schémas
XML (RDF Schema) pour décrire les vocabulaires
qu'elles utilisent. Parallèlement, nous élaborons
également une ontologie de profils permettant
de regrouper les meta-données par catégorie,
et définir ainsi les contextes dans lesquels
seront utilisés les contenus : un classement
conçu au final pourra être utilisé
par les applications.
Au côté de la définition des spécifications
et la mise au point des outils de développement
correspondants, le W3C s'est lancé dans la réalisation
de démonstrateurs. Le but de ces applicatifs
pilotes est de montrer aux industriels les possibilités
offertes par le Web sémantique. Notez que le
site du W3C les utilise déjà pour
syndiquer ses articles et gérer ses politiques
d'accès.
Les
Web Services rapprochent également XML de la
couche applicative ?
Les Web Services fournissent
effectivement une interface de programmation XML pour
accéder à des fonctions applicatives.
A la manière d'agents intelligents, leur objectif
est d'automatiser le dialogue entre applications distantes,
que ce soit en termes de services ou de contenus.
Le
consortium
lancé récemment par Microsoft et IBM
ne fait-il pas concurrence à votre groupe de
travail dédié à ce sujet ?
Le groupe que nous avons
mis en place en janvier dernier traite uniquement des
couches basses, telles que SOAP (Simple Object Access
Protocol), WSDL (Web Services Description Language)
et HTTP. Son travail ne couvre pas les vocabulaires
de description de données métier. Chose
que nous ferons peut-être plus tard quand nos
projets actuels en la matière seront entrés
en phase de normalisation. A la manière de l'OASIS,
la "Web Services Interoperability Organization" devrait
également traiter des niveaux supérieurs.
Comment
analysez-vous les récentes initiatives autour
de la présentation des contenus ?
Ici aussi, la démarche
est comparable à celle du Web sémantique.
L'objectif est en effet d'optimiser la structuration
et la formalisation des données pour qu'elles
puissent être comprises puis exécutées
par les machines. Face aux systèmes propriétaires
du marché (Flash, PDF, etc.), nous avançons
dans ce domaine des langages comme SVG (Scalable Vector
Graphics), SMIL (Synchronized Multimedia) ou les feuilles
de style en cascade (CSS 3.0). La plupart du temps,
il s'agit d'initiatives prises suite à des demandes
d'éditeurs en quête de langages standardisés.
Dans certains cas, nous avons abouti à d'excellentes
performances. C'est notamment le cas de la technologie
SVG qui offre des fonctions largement comparables à
celles de Flash.
Les
chantiers du W3C sont de plus en plus nombreux. Comment
sont-ils coordonnés ?
Plusieurs groupes de travail
horizontaux ont été mis en place pour
assurer la cohérence des travaux. Parmi eux,
on compte une activité autour de l'assurance
qualité, qui s'appuie par exemple sur des méthodologies
conçues par OASIS suite à des tests effectués
sur XML. D'autres veillent à ce que les spécifications
laissent une porte ouverte à tout type de terminaux
ou encore recommandent des démarches pour mettre
les modes de présentation à la portée
de personnes handicapées (aveugles, etc.).
Au côté de ces organes transverses, un
groupe de coordination (Technical Architecture Group,
plus couramment appelé le comité des sages)
se charge d'assurer la cohérence des spécifications.
Impliqués dans la plus part des projets, ses
membres en suivent l'ensemble des évolutions
en vue d'éviter les doublons et de garantir la
bonne application des schémas XML.
Quelles
sont les compétences nécessaires pour
faire partie d'un groupe de travail ?
Chaque groupe a mis au point
une charte pour décrire son mode d'organisation.
Celle-ci indique notamment le temps (quart temps, mi-temps,
etc.) et les compétences requises pour y entrer.
Au total, les participants sont le plus souvent des
spécialistes de la veille ou des membres de sociétés
souhaitant comprendre les standards avant de les implémenter
dans leur produit.
|
Dans le cadre de ses travaux au sein de l'INRIA
(Institut National de la Recherche en Informatique et
en Automatique), Daniel Dardailler commence par travailler
pour le X Window Consortium : un organisme indépendant
chargé de normaliser les environnements graphiques utilisés
sous les UNIX (HP UNIX, SUN, AIX, etc.). Parallèlement,
il réalise une thèse de recherche sur les problématiques
graphiques liées à ce type de systèmes. Membre
du World Wide Web Consortium (W3C) à partir de 1996, il
en est aujourd'hui le directeur pour l'Europe.
|