Paperjam.lu

 

Les leçons du passé

Depuis les débuts de l'informatique, les limitations technologiques ont toujours été assorties de la promesse de solutions miracles qui résoudraient les problèmes rencontrés.

Dans les années 80, l'apparition des PC fut un grand changement pour l'industrie informatique et ses utilisateurs. Pour certains, ceux-ci allaient remplacer rapidement tous les autres types de machines. Pour d'autres, il était clair que jamais aucune informatique sérieuse ne pourrait se développer sur ces «espèces de grosses calculatrices».

De même, il y eut l'intelligence artificielle qui devait rendre obsolète les travailleurs du savoir, les bases de données relationnelles, le client-serveur, sans oublier l'orienté-objet et le multimédia.

Aujourd'hui, la révolution annoncée est la nouvelle économie, principalement basée sur le développement d'Internet. Les plus jeunes se lancent de bon c'ur dans l'aventure mais chez les générations plus expérimentées, une attitude plus réservée, voire dubitative, a tendance à s'imposer. S'agit-il d'une réelle sagesse ou simplement de l'effet de l'érosion sur des années d'enthousiasme?

En pratique, aucune technologie n'a répondu aux attentes les plus extrêmes. Les PC ont envahi nos bureaux mais n'ont pas encore détrôné les ordinateurs centraux. L'intelligence artificielle a fourni quelques résultats mais également de nombreuses déceptions à la hauteur des espoirs les plus audacieux qu'elle avait généré.

Les plus touchés ont été ceux qui ont investi sans pondération, pensant qu'une innovation technologique était la composante majeure de la solution à leur problème. L'histoire récente des «start-up» a prouvé que c'est la qualité de l'infrastructure dans le «monde réel» qui fait la différence à moyen terme. Un succès durable sur Internet doit s'appuyer sur des avantages concurrentiels réels, y compris dans les marchés classiques. Sinon, ceux qui ont ces avantages ne vont pas tarder à vous imiter puis à vous surpasser aussi dans le monde «virtuel».

Il est donc clair que la mise en oeuvre de nouvelles technologies a fourni systématiquement des résultats nuancés par rapport aux attentes. Malgré cela, chaque nouvelle vague est accompagnée de débordements d'enthousiasme et naturellement des déceptions qui en résultent. Pour comprendre les forces qui provoquent la répétition des erreurs du passé, il peut être utile d'analyser la stratégie des acteurs en présence.

La stratégie des acteurs en présence

La guérilla est une stratégie marketing qui consiste à choisir un segment de marché limité mais porteur et à se battre pour le dominer. En fait, il est facile de comprendre que cette stratégie est privilégiée par les entreprises moyennes qui recherchent une forte croissance. En mettant tous ses efforts dans un segment précis, en se créant une image de marque différenciée, il est possible de prendre de vitesse les «majors».

C'est ainsi que l'on a vu apparaître avec chaque nouvelle génération technologique un certain nombre de sociétés spécialisées dans des domaines pointus, comme par exemple les systèmes d'opération, les bases de données relationnelles ou les outils d'analyse orientés objet.

En l'absence d'innovation majeure, un équilibre entre les différents concurrents se met en place. Les plus puissants capitalisent sur leur professionnalisme au fur et à mesure des projets. Leur notoriété est profondément ancrée dans les esprits et des accords de partenariat sont tissés entre les clients et les fournisseurs.

La spécialisation sur une nouvelle technologie permet non pas de faire disparaître, mais de faire perdre de vue les avantages réels résultant de l'expertise accumulée.

Parallèlement, les responsables informatiques, qui par leur expérience sont les porteurs des leçons du passé, ont aujourd'hui perdu une partie de leur pouvoir.

On leur reproche d'avoir manqué d'objectivité vis-à-vis de la technologie et de ne pas avoir pris suffisamment en compte les besoins des utilisateurs. En réaction, les responsables des différents autres secteurs d'activités de l'entreprise ont commencé à surveiller de plus près leurs collègues informaticiens qui sont de plus en plus considérés comme un centre de service. Chaque investissement informatique doit dorénavant avoir des objectifs clairs en terme de rentabilité et de résultats. Lorsque ce n'est pas le cas, l'obtention des résultats correspondant aux attentes ne peut en effet avoir lieu que par accident.

Cette tendance qui vise à donner plus de poids aux représentants des utilisateurs présente donc un intérêt pour les entreprises. Elle doit cependant être accompagnée par des professionnels pour éviter de nouveaux débordements. La suite de cet article explique les principaux points d'attention et les risques majeurs.

Les principaux points d'attention

Au cours des dernières années, les écoles de «Business Process Reengi-nering» ont montré qu'à partir des objectifs de l'entreprise, une quantité de travail importante est nécessaire pour découvrir où et comment intervenir. Les processus de fonctionnement sont découpés en suites d'activités élémentaires. Des alternatives sont proposées afin d'améliorer le résultat global avec certaines caractéristiques de performance en vue. Les modifications peuvent être importantes, ce qui induit un risque de déstabilisation, ou au contraire ponctuelles. C'est en effet souvent l'élément le plus faible d'une chaîne qui détermine la performance de l'ensemble. Dans tous les cas, seule l'efficacité globale du processus compte.

Lors de l'étape suivante de la réflexion, il s'agit de définir les relations entre ces besoins et processus d'une part et les applications informatiques d'autre part.

Ici, la tentation est grande pour les responsables de service d'avoir «leur application», correspondant à leur domaine d'activité, à leur processus préféré ou à l'objectif qui leur tient le plus à c'ur.

Lorsque cette voie est suivie pour informatiser l'entreprise, les conséquences pour les relations entre applications peuvent être plutôt surprenantes. Pour prendre une comparaison imagée, la nature n'a pas créé un organisme regroupant uniquement tous les poumons ou la suite des organes nécessaires pour le processus de digestion.

En fait, seule une analyse détaillée des différentes relations entre activités et des flux d'informations, des besoins en ressources, ainsi que des contraintes de temps peut mener à une architecture applicative optimale. C'est le raisonnement qui est suivi lors de la réalisation d'un plan directeur informatique. En l'absence de cette réflexion, les investissements consentis peuvent donner lieu à des applications isolées, ne bénéficiant pas des synergies nécessaires avec leur environnement, voire même réduisant l'efficacité d'ensemble de l'entreprise.

Le fait de dédier des équipes de projet à des objectifs précis va aider à obtenir les résultats attendus.

Le projet ne va pas faire disparaître la complexité, mais au contraire la révéler pour mieux pouvoir la gérer. La charte de projet va spécifier les objectifs, décrire le contexte et les processus touchés par le projet, ainsi que les différentes applications ou autres projets susceptibles d'être concernés.

Le but d'un projet est de fournir un meilleur fonctionnement d'un ou de plusieurs processus en intervenant dans un ensemble d'applications. Les dépendances entre les applications doivent aussi être prises en compte.

Le chef de projet doit avoir le souci permanent de faire partager la vision du résultat par l'ensemble des membres de l'équipe. La participation de représentants des utilisateurs et d'experts du domaine pendant toutes les phases de spécification doit être un souci majeur. Plus l'attraction exercée par la nouvelle technologie est grande plus les risques par rapport aux objectifs de l'entreprise sont grands.

La réutilisation de composants ou d'objets est un moyen d'augmenter la productivité et de faciliter la maintenance.

Malheureusement, la recher-che d'une réutilisation des composants issus d'un projet expose celui-ci à un risque de dispersion maximal par rapport aux objectifs initiaux. Le but de cette discussion n'est pas de condamner la réutilisation mais plutôt de montrer pourquoi elle doit être gérée avec le plus grand soin.

Un objet réutilisable doit pouvoir être employé dans différents projets, applications, processus, secteurs d'activité et par différents acteurs avec différents buts. Le développeur qui cherche, par ex-emple, à mettre au point l'objet «Client universel» se trouve devant un dilemme. Quels sont les besoins prioritaires, quel est le contexte, l'étendue du problème à envisager? Quels sont les utilisateurs à écouter? Qui paye? Qui est le sponsor? En l'absence de réponse à ces questions, les décisions qu'il prend ont une forte chance d'être arbitraires.

Les relations entre les projets et les objets réutilisables doivent être étudiées soigneusement et une stratégie de réutilisation doit être mise au point. Cette stratégie sera tout à fait différente s'il s'agit de projets de gestion normaux ou du développement d'une famille d'applications pour laquelle un fort taux de réutilisation est recherché. Dans ce dernier cas on fera notamment appel à une analyse de variabilité.

Conclusions

En guise de conclusion, l'amélioration significative des résultats d'une entreprise est rarement obtenue par l'unique recours à la technologie. L'innovation technologique est en effet la plupart du temps présente, mais son succès s'appuie sur les facteurs suivants:

- la clarté des objectifs et de la vision;

- l'efficacité des processus de gestion, dans l'entreprise et à sa proximité;

- la bonne intégration des nouvelles applications dans l'architecture globale;

- l'adéquation entre les techniques de gestion de projet utilisées et les défis présents.

Seule la bonne collaboration de spécialistes des différents domaines et leur parfaite intégration dans une équipe partageant la même vision sont à même de transformer efficacement le potentiel technologique en résultats concrets pour nos entreprises.