Journal du Net > Solutions >  "Nous sommes prêts pour le concept du dataweb"
Article
 
05/03/2001

"Nous sommes prêts pour le concept du dataweb"

  Envoyer Imprimer  

En parallèle avec d'autres éditeurs comme Informatica (voir interview du 25/04/2001), Cognos s'est engagé dans le packaging métier de son offre décisionnelle de bout en bout derrière le terme e-Apps. Son secret de fabrication : des datamarts, sortes d'entrepôts de données fonctionnels, verticaux et pré-paramétrés. Sans se soucier de la mauvaise passade boursière, l'éditeur déclare un chiffre d'affaires en hausse qui passe à plus de 495 millions de dollars en 2000-2001 (385,6 millions de dollars pour l'exercice précédent). Afin d'approfondir le thème des nouvelles architectures décisionnelles, nous avons rencontré Patrick Lutgé, directeur général France et vice-président Europe du Sud de Cognos.


JDNet Solutions : Cognos est souvent vu comme un éditeurs d'outils de reporting. Dans les faits, quelles parties de la chaîne décisionnelle recouvrez-vous ?
Nous sommes le n°1 mondial en terme de CA du marché de la business intelligence. Nous avons près de 750 développeurs à Ottawa, qui ont développé un ensemble d'outils qui couvrent la totalité de la chaîne en rapport avec la business intelligence. Et nous sommes les seuls à proposer une telle couverture.

Qu'apportez-vous aujourd'hui de plus avec votre nouvel outil d'ETL, Decision Stream ?
Nous savons prendre n'importe quelle donnée dans n'importe quel ERP. Ensuite, Decision Stream permet de fabriquer des datamarts coordonnés qui peuvent être lus à partir d'un portail. Ces marts sont élaborés en fonction du profil d'usage de l'utilisateur. Decision Stream, qui s'occupe de les coordonner, comprend des fonctions d'ETL mais ne s'occupe pas que de consolidation des données. L'utilisateur peut également vouloir modifier la façon dont les marts sont coordonnés.

Des "datamarts coordonnés" : de quoi s'agit-il exactement ? Et en quoi est-ce important de modifier cette coordination ?
Dossier: business
intelligence
> Sommaire
> Comprendre la chaine du décisionnel
> Questions-réponses
> Comment Marsh France décide sans complexe avec Brio
Dans une société, la première dimension de coordination est le temps. Or, cette dimension doit être coordonnée dans un sens identique pour chacun. Lorsque Decision Stream fabrique des cubes de données, il connaît les aggrégats et les indicateurs, ainsi que les axes de dimensionnement en fonction desquels ils sont exprimés, qui devront être produits en bout de chaîne par les outils de reporting. Or, un axe de dimensionnement donné correspond à un axe de l'entreprise. Par conséquent, à chaque fois que Decision Stream fabrique un datamart, il organise ses dimensions en prenant en compte directement celles de l'entreprise, qui peuvent être des axes temps, produits, chiffre d'affaires, etc. Et ce faisant, les marts sont coordonnés selon ces axes. Car le datamart comprend des axes propres à un département, mais aussi des axes en commun.

Pourquoi ne pas rester dans une logique de datawarehouse (entrepôt de données) centralisé ?
Lorsque l'entreprise dispose d'un seul et énorme datawarehouse, chaque utilisateur récupère pour son département des données qui ne l'intéressent pas forcément. De plus, la modélisation globalisante entraînée par la centralisation oblige à créer une structure monolithique. Ce qui pose toute une série de problèmes, aussi bien en terme de maintenance et de mise à jour, que d'accès aux données. Et enfin, aujourd'hui, les évolutions rapides que connaissent les entreprises les obligent à changer souvent leurs structures monolithiques complexes.
Par rapport à cela, la première réponse consiste à couper le datawarehouse en rondelles, avec une partie commerciale pour les forces de vente, etc. Mais là, l'entreprise perd la synchronisation et la cohérence de ses modèles de données. Peut-être existe-t-il des axes communs, mais pas de façon automatique. En réponse, nous proposons donc un datawarehouse coordonné entre plusieurs datamarts. Et nous obtenons le meilleur des deux mondes : la coordination des marts au moment de leur construction, et la facilité de maintenance.


Comment un datamart se conçoit-il ?
Tout d'abord, nous élaborons une table avec des indexes différents pour accéder aux informations. Cette table représente le modèle physique pour implémenter le modèle logarythmique de l'hypercube, qui est un schéma en étoile. Par exemple, nous pouvons figurer un cube à plusieurs dimensions, comme le temps ou le chiffre d'affaires, qui sera divisé ensuite en cubes plus détaillés, pouvant chacun correspondre aux différentes régions.
Ici aussi, notre modèle présente un avantage avec ses trois niveaux d'indépendance : entre les structures de cubes, entre les lieux où les différents cubes sont situés pour la synchronisation, et entre les autorités en charge des droits d'accès.


Comment l'idée de commercialiser des solutions pré-packagées vous est-elle venue ?
Il y a quelque temps, nous avons sorti un livre intitulé "The 24 Ways" qui donnait les "best practices", c'est à dire les indicateurs les plus significatifs pour les entreprises. Pour cela, nous nous sommes associé avec une société qui nous a aidé à extraire les 24 cubes de base. Et derrière, nous nous sommes dits que nous allions l'implémenter dans notre offre. C'est pourquoi nous avons fabriqué les e-Apps, qui définissent à la fois d'où les données doivent être extraites, et la façon dont les marts doivent être conçus en fonction des indicateurs de performance clefs.

Quel degré de packaging proposez-vous ?
Quand l'entreprise achète une solution e-Apps, elle reçoit un CD-Rom prêt à l'emploi avec des icônes sur lesquelles l'utilisateur n'a plus qu'à cliquer. Tout est pré-câblé, pré-modélisé, et il reste facile ensuite d'y apporter des modifications. Nous ne proposons pas un ERP, où en cas de modification, il faut répercuter celle-ci en dur dans le code. Si une entreprise tient à son propre indicateur de performance clef secrêt, nous le fabriquons pour elle dans les meilleurs délais. Pour cela, nous le déclarons à Decision Stream et nous l'ouvrons comme les autres dans le portail.
En fait, les e-Apps aboutissent au développement d'un mart interactif avec l'utilisateur final, qui dispose d'outils graphiques de modélisation. Mais pour déclarer un nouveau KPI (Indicateur de performance clef), la seule contrainte que nous lui imposons est de le faire au niveau de Decision Stream. Car s'il le réalise dans son coin au niveau de son propre mart, la cohérence des données ne sera pas assurée.


Quelles est , selon vous, la principale évolution des architectures décisionnelles aujourd'hui ?
Je crois qu'il existe deux types d'évolutions majeures. La première consiste à fabriquer des applications analytiques tenant compte des best practices. Et après, d'être capable de livrer des cubes en accord avec la structure d'exploitation conforme à ces indicateurs clefs, et nous le faisons.
Ensuite, il faut aussi apporter une chaîne logicielle complète entre les données issues du progiciel (ERP, CRM, SCM...) et l'information disponible sur le portail d'entreprise. Or, à présent, nous y sommes avec notre dernier produit Enterprise Portal 7. Aujourd'hui, nous nous sommes aussi renforcés sur un point majeur qui est l'exploration des données. Nous fournissons le logiciel Impromptu dans une logique de reporting, mais notre produit phare est PowerPlay. Avec celui-ci, il est possible de constituer des rapports comprenant des dizaines de milliers de pages.
Mais au final, ce que veut l'utilisateur, c'est pouvoir imprimer seulement la face du cube qui l'intéresse. Or, nous avons rendu possible le fait de prendre cette vue et de la déclarer directement comme une page Excel. A partir de là, la face en question n'est plus du PowerPlay même si celui-ci continue de la gérer. Et il suffit de prendre Excel et de le plaquer sur le jeu de données.


Faites-vous une différence entre les termes "business intelligence" et "technologies décisionnelles" ?
Pour moi, les mots clefs importants sont plutôt datawarehouse ou datamart. Car il est déjà très important d'être d'accord sur une structure de données indépendante de l'ERP, et aussi indépendante de la décision elle-même. Et n'oublions pas les outils de restitution qui produisent des vues différentes selon les profils. Pour cela, il faut au travers du web un outil de loupe dans le PC qui retraduise l'architecture client/serveur.

Justement, comment parvenez-vous à résoudre les problèmes de montée en charge liés au déploiement ?
En effet, quand un parc de 1 000 PC est concerné par le téléchargement d'un applicatif Java, le responsable informatique devient fou car l'opération risque de faire tomber son réseau. De plus, aujourd'hui, de très nombreuses entreprises disposent d'un firewall et interdisent les téléchargements. Pour la restitution et l'accès aux données, le programme peut être installé sur le poste client ou être situé sur le serveur. Or, notre optique consiste à générer des pages HTML directement côté serveur. Du coup, le trafic réseau reste limité aux autres flux sans détruire l'organisation de l'infrastructure.

Vous disiez pouvoir prendre n'importe quelle donnée dans n'importe quel ERP. Qu'en est-il exactement ?
Cela dépend des accords que nous avons signé. Nous fournissons des connecteurs vers certains ERP comme J.D.Edwards dont le modèle de données est complexe. En revanche, sur d'autres comme Oracle Applications, nous employons le modèle SQL. Comme il n'existe pas de colle universelle, il faut se normaliser sur le type de données et prévoir des parties spécifiques selon le modèle d'accès.

Quel est l'apport des technologies web au décisionnel dans l'entreprise, sur le plan de son organisation ?
Je dirais qu'il s'agit de l'évolution vers des indicateurs temps réel au travers du web. Et celle-ci ne provient pas d'une idée informatique mais d'une idée organisationnelle. En fait, quand nous nous engageons dans la mise en place d'un système décisionnel complet basé sur les e-Apps, nous donnons un avantage concurrentiel à notre client par rapport aux entreprises qui regardent leur ERP. Mais si aujourd'hui les systèmes décisionnels ne sont pas si répandus que cela, à un moment donné toutes les entreprises en auront. Dès lors, la société plus concurrentielle devient celle qui décide plus vite que les autres. Il faut donc avoir les outils nécessaires, comme les nôtres, et que ceux-ci soient aussi capables de produire des données plus fines.
Bref, nous voyons que le raccourcissement du temps de décision implique aussi une accélération des procédures d'information en amont. Et nous arrivons à la notion des indicateurs temps réel. Aujourd'hui, nous en parlons encore plus car le web raccourcit les délais des échanges. Il s'agit du concept de dataweb et nous y sommes prêts. Si nous éditions un datawarehouse monolithique, les processus seraient plus longs. En même temps, avec nos datamarts coordonnées, nous supprimons toute redondance. Le modèle en étoile le permet et pas les autres. Et c'est Decision Stream qui assure le rôle de méta-datamart. Chez Sara Lee, par exemple, nous mettons à jour les données toutes les nuits, et ce sont 20 gigaoctets qui sont rafraîchis en 20 minutes.


Vers quelles orientations allez-vous vous tourner à présent ?
Nous allons étendre les capacités d'accès des e-Apps à d'autres sources de données. Avec J.D.Edwards, par exemple, nous fournissons en standard près de 600 rapports dont les sources sont extraites de leur ERP. Aujourd'hui, notre objectif est de livrer le même jeu d'indicateurs de performance clefs pour les autres ERP dont les modèles de données sont différents.
Avant d'être nommé son directeur général France et vice-président Europe du Sud en mai 1999, Patrick Lutgé a occupé successivement plusieurs postes chez l'éditeur canadien Cognos depuis son arrivée en 1989. Entré comme responsable des ventes, il devient son directeur général pour la France, la Suisse Romande et l'Afrique du Nord en 1992. Auparavant, de 1975 à 1989, il a occupé divers postes commerciaux chez plusieurs sociétés informatiques telles que Data General, Cullinet et le distributeur de composants électroniques Tekelec. Patrick Lutgé est titulaire d'un DEA d'informatique obtenu à l'Université Paris VI.
[Propos recueillis par François Morel, JDNet]


JDN Solutions Envoyer Imprimer Haut de page

Sondage

Votre entreprise compte-elle recruter des profils IT en 2017 ?

Tous les sondages