Qu'est-ce que l'hypermédia
? Pour certains, il s'agit simplement de la possibilité
d'accéder à d'autres ressources que du
texte via des liens hypertextes. Mais pour de nombreux
chercheurs qui travaillent sur ce paradigme, la définition
englobe d'autres paramètres. Parmi ceux-ci, la
représentation d'une application et des objets
d'informations qui y sont associé de façon
non linéaire, c'est à dire dans un ordre
qui n'a pas été défini de manière
rigide. Quoi qu'il en soit, il paraît difficile
de se faire une idée précise du sujet,
puisque des divergences d'opinion subsistent parmi les
sommités. Malgré cela, l'un des dénominateurs
communs des réflexions menées est de considérer
l'hypermédia comme un socle pour des interfaces
évoluées.
Maintenant, vous souvenez-vous du concept d'Ubiquitous
Computing ? Nous avions décliné le
sujet dans un précédent article de la
même rubrique.
Le
rêve de l'informatique omniprésente, dont
Microsoft et d'autres prévoient qu'elle envahira
nos environnements familiers d'ici 10 ou 15 ans, nécessite
d'autres percées que la simple miniaturisation
des éléments informatisés et leur
enfouissement dans notre cadre de vie. La communication
entre ces composantes éparses pourrait être
régie par des micro-ondes telles que celles à
la norme Wi-Fi, et l'on voit bien que ce n'est pas là
que le bât blesse.
15 ans devant, 30 ans derrière
Dans un document de Microsoft
Research à ce sujet, la R&D de la firme exposait
un exemple qu'elle considérait comme l'un des
plus complexes : deux personnes assises l'une en face
de l'autre animent une discussion qui est enregistrée
par des capteurs. Après une série de traitements
en temps réel s'effectuant dans le laps de temps
le plus court possible, une vidéo s'affiche sur
l'écran mural multi-fonctions (télévision,
borne Internet, bibliothèque multimédia...),
qui vient compléter le sens de la discussion.
Si cet exemple a été considéré
comme complexe par des chercheurs, ce n'est pas en raison
de la miniaturisation qui existe déjà
sous forme de prototypes réels. Ce n'est pas
non plus à cause de la communication dont les
standards de fait devraient s'imposer d'ici quelques
années. Enfin, ce n'est visiblement pas faute
de la performance des systèmes de
reconnaissance vocale qui n'apparaîssent, il est
vrai, pas encore tout à fait au point. Avant
que l'ordinateur ne soit capable d'une réactivité
pertinente et proactive, il lui faut surtout être
capable de comprendre les concepts dans une variété
de situations et d'expressions.
Retour
à Xanadu : le Web mis à l'index ?
La notion de concept pourrait donc se marier sans complexe
avec l'hypermédia. A noter que le terme interpelle
en soi par sa proximité linguistique avec les
liens hypertextes d'un côté, et le multimédia
de l'autre. L'association devient évidente avec
l'élément contextuel. Il s'agit, en complément
d'une situation donnée faite d'objets multimédias
qui définissent un contexte, de servir des éléments
en relation qui puissent être du texte, de l'image,
de l'audio/vidéo ou n'importe quelle combinaison
de différents types médias accessibles.
Cette volonté se retrouve chez l'éditeur
Autonomy,
dont l'une des spécialités est précisément...
les moteurs de concepts. En appui sur des algorithmes
d'analyse (Shannon, Bayes...), son moteur de recherche
affiche en permanence des liens contextuels vers des
ressources qu'il considère proches d'un document
non structuré en cours de saisie. Parmi les autres
orientations de cet éditeur : la structuration
de documents basés sur une forme de reconnaissance
vocale.
Malgré la complexité affichée,
l'hypermédia n'est donc pas une idée nouvelle.
Déjà, il y a 30 ans, le visionnaire
Ted Nelson, expert es-interfaces homme/machine, avait
commencé à imaginer les contours d'un
système alternatif ou concurrent du Web (lire
article sur le site développeurs d'IBM).
Baptisé Xanadu, celui-ci rejette en bloc bon
nombre de principes adoptés dans les faits
par les organismes de normalisation comme le W3C. Selon
le scientifique, le Web représente typiquement
un concentré de ce qu'il aurait fallu éviter
pour créer un espace réellement ouvert
au partage de la connaissance.
La conjonction du protocole HTTP et du langage de description
HTML rend possible les liens hypertextes, appelés
ainsi car leur fonction est de donner accès à
des ressources situées en des emplacements divers.
Entre autres objections, Ted Nelson critique le fait
que ces liens soient unidirectionnels et ne tiennent
pas compte des changements qui peuvent intervenir sur
les documents eux-mêmes et dans leur emplacement.
En abandonnant l'idée d'une structure hiérachique
qu'il juge anti-progressiste, son système théorique
Xanadu combine en une seule plate-forme des liens bidirectionnels
qui demeurent même lorsque les documents changent
de place, avec un historique des versions et des profils
d'accès. Pour Ted Nelson, les implémentations
du langage XML ne sont qu'une suite de rustines à
un système inadapté et dépassé.
L'interactivité
? Oui, mais entre les processus...
Internet aurait-il donc
pu davantage être taillé pour la communication
hypermédia ? Possible... Mais en l'état
de la situation actuelle, le langage XML et les bases
de données peuvent offrir une partie des fonctions
(historique des versions et gestion des profils...)
qui servent de socle à de la collaboration sur
du contenu, et font défaut aux technologies Web
au sens strict. En attendant, toutes les architectures
de tous les sites web ne sont pas conçues ainsi.
Et c'est cela que déplore l'inventeur de Xanadu.
Fondé en 1996, l'OHSWG
(Open Hypermedia Systems Working Group) a également
pointé du doigt ces lacunes de HTTP, et en souligne
une autre : le protocole du Web n'a pas été
conçu pour accéder à des portions
de documents. Selon l'exemple cité, il ne peut
extraire les dix dernières secondes d'une
vidéo de deux heures pour n'afficher que celles-ci.
Parmi les travaux des membres de l'OHSWG, l'on retiendra
l'usage de "l'hypermédia ouvert" pour
faciliter et enrichir les possibilités de l'intégration
de contenus. Un livre blanc (deuxième de la liste
sur
cette page) explique ainsi comment un référentiel
de contextes XML peut servir à générer
des méta-données sur de l'information
existante. Le projet HyperDisco
va encore plus loin, puisqu'en faisant interagir les
processus, il prétend pouvoir intégrer
des applications les unes avec les autres sans les obliger
à normaliser leurs modèles d'intégration.
Dans le même temps, Autonomy semble développer
une approche similaire à travers son système
middleware IDOL
(Intelligent Data Operating Layer) qu'il définit
comme une couche essentielle "d'intégration
par la compréhension" au coeur de l'architecture
de sa plate-forme. Sous une forme évoluée,
un tel système doit pouvoir accéder à
tous les types de sources et effectuer de l'intégration
à la demande. Et ceci, grâce au recours
à des technologies d'analyse sur les formats
d'entrée/sortie des applications. Bref: si les
interfaces contextuelles du futur peuvent paraître
d'un abord très simple pour l'utilisateur, les
technologies sous-jacentes se révèlent
autrement complexes. Et parmi les éditeurs dans
la course, il faudra surveiller de près Autonomy.
|