La GED, c’est fini ! 

À la une

Ou plutôt,

les solutions pour gérer les documents tels que nous les connaissons vont disparaître à moyen terme. Les éditeurs vont devoir évoluer, se faire acheter, ou s’éteindre. Quant aux archivistes ou aux informaticiens concernés, c’est certain, leurs fonctions vont évoluer ou disparaître.

L’objectif principal et initial de la GED était de permettre la gestion de vos documents au travers d’un plan de classification et d’un calendrier de conservation, et bien entendu de retrouver vos ‘affaires’ dans la masse de ce que l’on appelait les archives.

interface-ged

Nous avons connu historiquement des solutions majeures et massives apparues dans les années 90, s’appuyant sur des bases de données SQL.

Le marché s’est développé progressivement au travers d’importants chantiers en clientèle, pour les gros joueurs comme Filenet (racheté par IBM en 2006), OpenText,  Stellent (racheté par Oracle en 2006) ou encore Documentum racheté en 2003 par EMC puis par Dell en 2016  qui l’a revendu à son tour, la même année, à OpenText.

Pendant ce temps, des solutions mineures ont su offrir aux marchés des organisations de moyenne taille, des fonctions plus accessibles, aux options plus nombreuses, plus proches des utilisateurs,  plus faciles à mettre en œuvre et moins coûteuses.

Puis, par la suite, la plateforme Sharepoint de Microsoft est arrivée pour tenter de rattraper ce marché avec une offre originale est très ouverte, suivie par des solutions open source (ouvertes par définition), comme Alfresco leader dans ce mouvement. Ces solutions ont, aussi été proposées aux petites et moyennes organisations. Finalement, le résultat est comparable aux grosses solutions. : Des projets souvent sans fin, aux coûts hors de proportions par rapport aux attentes de la clientèle.

Les solutions majeures

Ces solutions ont été conçues en premier lieu pour répondre à ce que nous appelions, à l’époque, de gros volumes en s’appuyant sur les bases de données SQL. L’ergonomie n’était pas vraiment une préoccupation prioritaire pourvu qu’il soit possible de conserver en sécurité et de rechercher ses documents.

Ces solutions ont, la plupart du temps, offert le service attendu à certains niveaux, mais  dans les projets d’envergure, la réalité a souvent été décevante. En effet, les dérives au niveau de l’adaptation aux règles d’affaires, et des contraintes d’intégration puis d’infrastructures, aggravées par une croissance majeure des volumes à traiter,  ont  mené à l’essoufflement de nombre de projets, voire à des impasses. Souvent, avec des solutions finalement amaigries au niveau des fonctionnalités, les utilisateurs se contentent  ultimement de rechercher leurs documents au travers de l’explorateur de leur ordinateur…Quant aux solutions ouvertes comme Sharepoint ou Alfresco citées plus haut, elles se révèlent justement trop ouvertes et deviennent finalement assez complexes.

C’est ainsi que les développements puis la maintenance peuvent prendre des proportions annihilant les bénéfices attendus, et confinent, ces solutions, aux mêmes résultats que les ‘Gros’ cités plus haut.

Les solutions mineures

Pendant ce temps se déployaient des solutions plus modestes développées à partir de DBase qui a connu ses heures de gloire lorsque Borland en était le propriétaire, ou Access de Microsoft ou encore FileMaker d’Apple.  Ceux que l’on appelait les ‘petits’ éditeurs, se sont attachés à l’ergonomie au niveau de l’interface utilisateur, et surtout à livrer une solution prête à l’emploi. Ils ont pris leur essor dans le contexte de la mise en service de la numérisation ou dans les projets d’archivage documentaire, pour des entreprises de taille moyenne ou certains services départementaux au sein de plus grosses organisations.

Les produits comme Scanfile, Laserfiche ou M-Files ont longtemps été cités comme ‘petits’. Si le marché ne leur a pas forcément donné la chance de démontrer leur capacité à gérer des volumes importants, ils ont eu l’avantage d’offrir des solutions achevées pour lesquelles les modifications et autres adaptations aux spécificités de chaque organisation se faisaient par simple paramétrage plutôt que par développement informatique. Ah!!!!! Si ces solutions avaient pu répondre à des cahiers des charges ambitieux réservés aux ‘grands’, ou apporter la versatilité et la simplicité de paramétrage plutôt que le codage des interfaces….

Offres complémentaires

Nombre d’éditeurs ont développé des fonctions complémentaires comme la numérisation, ou la gestion des courriels, ou encore des processus documentaires, comme des modules plus ou moins intégrés.

Parallèlement, ce sont d’autres éditeurs qui se sont consacrés à offrir, de manière autonome, en complément des solutions de  GED, des solutions de capture de données et la saisie automatisée de documents d’affaires comme les factures. On peut citer Kofax, ou Captiva, eux aussi rachetés depuis.

Certains acteurs offrent une approche de type ‘’tout inclus’’ avec des fonctionnalités additionnelles, issues, la plupart du temps, non pas de développements, mais de rachats de compagnies tierces, comme, par exemple, la gestion des processus, la gestion de la connaissance, et la BI pour l’intelligence d’affaires. Portée disproportionnées de la GEDC’est souvent une approche d’abord marketing. Cela ne permet de pas d’améliorer la performance de la solution d’origine, mais permet de séduire la clientèle, alors qu’il devient impossible d’empêcher la dégradation de la performance de la solution en place,  due, principalement, à la noyade des documents dans des volumes devenus gigantesques, dans le contexte d’un besoin d’intégration plus large et plus profonde au sein des systèmes des organisations.

Enfin, nous assistons à un début de concentration avec le rachat de Documentum par OpenText, ce qui en fait le plus gros joueur de la planète. Nous observerons bientôt le devenir des deux plateformes regroupées sous un même toit.

Mais il est maintenant trop tard pour considérer la GED comme une solution d’avenir!

La GED est en retard sur son agenda. Elle n’a globalement pas su livrer ce dont les organisations avaient besoin. Elle est surtout confrontée, désormais, à des contraintes importantes comme la performance des infrastructures et surtout de nouveaux enjeux légaux qui impliquent de ne plus gérer les seuls documents, mais aussi les données contenues dans ceux-ci et même les données détenues indépendamment par les bases de données.

En effet, la législation avance quant à la protection des renseignements personnels et l’accès à l’information.

Martello da Giudice

Alors:

  • Savez-vous ce que contient chacun des documents en votre possession?
  • Est-ce que la totalité des documents a été traitée de manière à en permettre la recherche plein texte?
  • Gérez-vous avec votre GED et ses règles, les documents en cours de collaboration au sein des processus d’affaires?
  • Savez-vous localiser les documents en double et les versions différentes de tout document au sein de votre système d’information?
  • Savez-vous localiser un unique document final signé et archivé?
  • Savez-vous gérer vos données et vos bases de données de manière à respecter les délais de conservation applicables comme ils le sont pour les documents
  • Êtes-vous satisfaits de votre solution actuelle?

Ma vision personnelle est la suivante :

La solution capable de répondre à ces enjeux anciens devenus gigantesques au niveau des volumes, et nouveaux pour lesquels ni les solutions ni des déploiements judicieux réalisés ne permettent de répondre, réside dans un virage majeur au niveau de l’architecture. Celui va d’une part scinder les activités pour les traitements et d’autre part, gérer la totalité des documents et des données en gouvernance au niveau de l’entreprise.

Les technologies sont là!

Il manque encore la connaissance sur le marché de ces solutions, de ces technologies innovantes, et la volonté de provoquer ce virage. Mais, attention, nous ne sommes pas loin du moment où plus rien ne sera possible pour traiter de manière uniforme l’ensemble des documents, et de garantir la conformité légale.

Par exemple, 2018 est l’année de la mise en application de nouvelles lois en Europe.

  • MiFID II, est une norme qui apporte des changements profonds sur la transparence des marchés financiers et défense des investisseurs
  • Le Règlement général sur la protection des données(RGPD)  (le règlement s’appliquera aux entreprises établies en dehors de l’Union européenne…)

Comment faire?

  • Nous sommes forcés de reconnaître que la GED traditionnelle ou telle que nous la connaissons encore aujourd’hui se résume ultimement à un plan de classification et un calendrier de conservation. Les métadonnées sont souvent surtout utilisées pour assumer ces fonctions. Cette vue ancienne et qui malheureusement perdure est très limitative et n’apporte finalement que très peu de valeur ajoutée aux organisations. Souvent, nous ne nous intéressons pas et ne prenons pas en compte l’information qui se trouve au sein des documents. Or le contenu et les métadonnées des documents constituent une mine d’informations ne demandant qu’à être exploitées, aujourd’hui ou plus tard.
  • Savoir exploiter au mieux l’information se trouvant dans les documents procurera un avantage stratégique et compétitif supplémentaire. Ce serait dommage de vouloir considérer la seule l’information associée aux documents sans prendre également en compte l’information référentielle se trouvant dans les différents systèmes d’information présents dans l’entreprise. Plus largement, il peut être très important, en complément d’un traitement complet de l’information, que celle-ci soit de nature structurée ou non structurée, d’exploiter l’information résidant à l’extérieur de l’entreprise.
  • Les solutions de GED actuelles n’apportent pas de réponses efficaces à ces problématiques. De la même manière, les solutions basées sur des bases de données relationnelles sont incapables de traiter de manière performante l’information de nature non structurée.
  • Afin de répondre à ces enjeux, nous devons nous tourner vers des solutions innovantes permettant de collecter, contrôler, corréler et effectuer de l’analyse prédictive et descriptive de très grands volumes de données hétérogènes de nature structurée ou non structurée. Cette approche permet de combiner le meilleur des solutions de GED et des solutions basées sur les bases de données relationnelles mais en s’affranchissant de leurs contraintes et limitations.

 

Cette révolution dans l’architecture se légitimera par l’utilisation mutuelle des données et des traitements. Par exemple, si un processus d’affaires utilise et met à jour une information celle-ci sera disponible avec sa mise  jour pour le reste des systèmes de l’organisation. Ainsi les investissements de chacun profiteront à tous.

À l’arrivée de l’Intelligence d’affaires nommée BI, et des ERP, la fusion de l’information a été rendue possible grâce aux ETL. La mutualisation, de son côté,  l’a été grâce aux EAI  devenus aujourd’hui plus évolués sous le terme ESB .

Aujourd’hui Big DataFotolia_55654343_XS.jpg et croissance des demandes requérant de l’intelligence artificielle, pour des processus de plus en plus automatisés, voire robotisés, provoquent une croissance de la manipulation des données dans des proportions gigantesques.

 

Si nous devions lister les principales caractéristiques de la solution idéale, elles seraient les suivantes :

  • Gérer et stocker de très grands volumes de données structurées et non structurées (documents, fichiers multimédias, courriels, etc.).
  • Offrir les fonctionnalités classiques attendues par une GED (consultation, contribution, gestion des versions, gestion des politiques de rétention, recherche plein-texte, etc.)
  • Savoir exploiter les métadonnées comme des données
  • Intégrer aisément toute source de données existante et future (GED, progiciels de gestion intégrés, bases de données relationnelles, ressources disponibles sur Internet, etc…)
  • Permettre une intégration non perturbatrice avec les systèmes informatiques existants.
  • Assumer la cohabitation ou la migration de plusieurs solutions de GED au sein d’une même organisation
  • Pouvoir enrichir dynamiquement les documents d’informations pertinentes
  • Automatiser la classification et le marquage des documents
  • Corréler aisément les données non structurées et structurées, de différents systèmes
  • Proposer un moteur puissant d’indexation et de recherche
  • Offrir la fonction de bi-temporalité. (La bi-temporalité permet de disposer d’un tableau précis des données, à tout moment. Cette fonction s’avère particulièrement utile au sein des secteurs réglementés. La bi-temporalité permet d’obtenir de meilleures réponses aux problématiques posées par les données d’aujourd’hui, d’hier et de demain.)
  • Assurer un haut niveau de sécurité afin d’assurer la protection et la confidentialité des données.
    • Chiffrement des données
    • Non-exposition de certaines données sensibles ou remplacement par d’autres valeurs pour éviter les fuites de données. (accès restreints ou caviardage)
    • Sécurité au niveau des éléments spécifiques ou des métadonnées des documents pour apporter un niveau de sécurité encore plus granulaire qu’une sécurité réalisée au niveau du document.

 

Conclusion :

Success.3D little human character The Successful. People series.La GED va persister en tant que règles dans l’architecture évoquée ici dans cette vision. Celle-ci sera composée, par exemple, de moyens de type ETL moderne ultra performant et d’ESB, s’appuyant sur des bases de données de type NoSQL. Des moteurs de type sémantique statistique et même prédictif seront utilisés pour créer avec les données ce qui s’appelle de l’Intelligence Artificielle. La gouvernance ou l’interopérabilité de l’information sera implicite et sécuritaire.

La classification des documents, et désormais des données, sera représentée dynamiquement aux utilisateurs, en fonction des règles de classification d’une part et des règles d’affaires et de sécurité de l’autre. Le calendrier de conservation des documents comme des données sera appliqué au travers de règles, pour être déclenché de manière événementielle.

Cette approche que je juge et souhaite disruptive est comparable, par exemple, à l’avènement des serveurs en réseaux au début des années 90 en remplacement des  Mainframes ou Gros systèmes, seuls capables de faire les traitements demandés jusqu’à cette époque. Cette génération, encore présente, apportait un grand progrès en étant plus performants, moins cher, et plus souple à déployer et à maintenir.

Pensez-y et  gardez ce document en mémoire; nous en reparlerons probablement bientôt.

Philippe Goupil

 

 

 

Advertisements

Les projets de GED, au Québec, en panne !


Les projets de GED, au Québec, en panne 

arret urgence

Les projets de GED – ECM subissent actuellement un ralentissement voir un arrêt.

Plusieurs projets gouvernementaux sont ainsi à l’arrêt ou en transition. La politique gouvernementale prudente a effectivement gelé de nombreux projets technologiques dont ceux de GED (GID appellation plus utilisé au gouvernement).

ghjPar ailleurs et sans lien direct avec cette politique, des ministères ont volontairement décidé le gel de leur projet GED. Certains autres ‘patinent’ dans l’attente d’une migration de la solution ou de celle d’Oracle, ou encore d’évolutions connexes, mais aussi par manque de visibilité et de connaissance. 

fjklhk

Dans le secteur privé, on observe des arrêts de projets suite  à un abandon pure et simple de la solution, un gel du projet GED, ou un coup de frein sur les dépenses avec un virage majeur vers une approche plus simple et pragmatique, au périmètre moins large (en utilisant une plate-forme collaborative en place, par exemple…).

Les conséquences sont évidemment :

  • un recul de l’agenda pour des fonctions pourtant indispensables dont la disponibilité est désormais urgente.
  • la renonciation aux fonctionnalités modernes.
  • Sur le plan financier, des conséquences pécuniaires passées mais aussi futures, sont à intégrer.
  • Le plus grave serait qu’un retard majeur soit pris face aux évolutions technologiques offertes désormais au travers du virage numérique pour un meilleur service aux citoyens, et à la clientèle. La mise en conformité vis à vis des lois en place, et à venir serait potentiellement retardée.

Pourquoi cette situation?

Cette situation est explicable et comparable à celle que j’ai personnellement vécu dans d’autres régions géographiques. Elle est la conséquence, d’un processus de modernisation technologique dans un contexte novateur, pour les clients comme les partenaires. Je compare souvent cette réalité à celle des années 90, avec la mise en place des premiers sites WEB.

Détail du cas du WEB:

La situation était la suivante :

  • Que fait on avec?
  • Qui fait quoi?
  • Qui connaît quoi?
  • Quelle est la cible?
  • Combien cela coûte?
  • Où sont les bénéfices?

Solution technologique oblige, les informaticiens ont pris la direction des opérations. Par la suite spécificité multimédia, web design etc., aidant, les infographistes et premiers spécialistes du web ont pris le relais. Enfin, après plusieurs versions du site, plusieurs mois ou années, la cible ayant été bien déterminée, la direction marketing et communications a pris la stratégie et les opérations WEB en main, travaillant en équipe avec les spécialités précédemment nommés…

Le cas de la GED (et de sa ‘dérive’ ECM)

ECRAN1Quelque années plus tard, ‘nous’ répétons les mêmes hésitations avec la GED. Les raisons sont un peu différentes.Par exemple, en Europe, la contrainte était, à l’époque, d’abord financière avec un coût du stockage du papier devenu exorbitant pour des sièges sociaux situés principalement dans les capitales. Les archivistes en charges de la gestion documentaire appréhendaient les premières solutions basées sur des technologies comme Dbase, Access ou Filemaker (Claris). Ils assumaient à la fois leur responsabilité de gardien du patrimoine, et de gestionnaire des documents (plan de classification et cycle de vie). Le document était d’ailleurs le plus souvent une archive. Petit à petit, la numérisation prenait progressivement de l’ampleur et les documents devenaient de plus en plus numériques. Les informaticiens avaient la partie technique de la solution en charge. Parfois ce sont eux qui prenaient la direction du projet GED, et le déploiement consistait principalement à installer la solution. Les utilisateurs étaient encore essentiellement les archivistes.

Par la suite grâce à l’arrivée de nouvelles technologies (SQL, XML, Dot.net),  les éditeurs on offert des fonctionnalités plus avancées comme l’utilisation des worflow, ou des métadonnées par exemple. Le paramétrages est devenus plus aisé (réduction progressive du code à développer). La portée de la GED s’est élargie dans des proportions dépassant les attributions des archivistes, et les informaticiens se sont naturellement positionnés comme chef d’orchestre du projet de GED, puisque les mieux aguerris à la gestion de projets technologiques. En effet à cette époque richesse fonctionnelles rimait surtout, avec richesse technologique.

De cette situation finalement assez nébuleuse, la haute direction ne savait pas décider qui devait avoir la charge de la GED (archivistes, informaticiens, chacune des directions opérationnelles, ou autre), ne sachant pas suffisamment ce que fait la GED dans l’entreprise. Aujourd’hui encore, les différentes directions subissent ou regardent la GED sans savoir vraiment ce qu’elle peut leur apporter. Ni les équipes en charges des processus ni le marketing ne soupçonnent souvent qu’ils seront les premiers bénéficiaires de la performance de la GED.

Pendant ce temps les éditeurs offraient des solutions de plus en plus ‘larges’ et souvent lourdes. Face à des décideurs qui dans le doute ont plus facilement fait confiance à de grosses compagnies pour des produits très chers, souvent sans autres arguments de choix précis que la pérennité de la compagnie et implicitement de la solution offerte… (les grilles de sélection de critères auxquelles la majorité des éditeurs savent répondre positivement, ne permettant pas de valider efficacement une solution parmi d’autres.)

Le pourquoi du pourquoi.

Comme dit précédemment la GED représente des fonctionnalités novatrices et il n’y a pas beaucoup de référentiels ni à des pratiques ni à des solutions dans l’organisation, lorsque le temps d’analyser les besoins arrive. Le niveau de connaissance et de formation est aussi, très limité (y compris chez les partenaires) du fait de la jeunesse du sujet. Si les archivistes dominent le sujet de la gestion documentaire, ils ignorent bien souvent les enjeux des processus ou des technologies connexes (gestion des courriels, signature numérique, métadonnées, capture, Cloud, ediscovery). La numérisation se révèle systématiquement comme un projet à part entière du fait des détails et des spécificités que l’on découvre à l’usage…. Les informaticiens de leur côté ne maîtrisent que peu les enjeux bénéfiques de la GED au delà de la performance apparente de la solution. Les équipes concernées au premier niveau, Processus et Marketing, ne savent pas définir quels besoins fonctionnels seront comblés par quels fonctionnalités de GED et plus largement du virage numérique.

Le déploiement se fait alors avec des résultats décevants :

scvsscIl est souvent constitué d’une installation-implantation technique avec paramétrage des postes clients et un zeste de formation. L’accompagnement au changement souvent mis en avant est mal assumé par des équipes connaissant plus la psychologie que la GED, sa portée et ses bénéfices au niveau de l’organisation et de l’utilisateur lui même. C’est par la suite que l’on découvre que le projet prend une tournure bien plus conséquente qu’initialement prévu. La bouchée trop grosse ne permet plus de respecter l’agenda et le budget, les implications de la gouvernance génère de nombreux sous projets; la GED perd son statut de simple solution d’accompagnement pour la gestion documentaire en devenant enjeu stratégique de la performance, registre qui nécessite une organisation tout autre..

  

Causes et conséquence

  • Faute d’avoir une solution en place, démontrant la performance de la GED.
  • Faute d’avoir des bénéfices suffisants à mettre en face des investissements parfois démesurés (dizaines de millions de dollars engloutis…)
  • Faute d’avoir une vision globale et stratégique du virage numérique dans lequel doit s’inscrire le projet de GED
  • Faute d’avoir suffisamment de connaissances en interne
  • Ayant démarré le projet la tête ‘la première’ par exemple, avec une numérisation massive
  • Ayant trop fait confiance au catalogue de l’éditeur
  • Ayant  pris le projet trop large dès le commencement

                                    La sagesse amène à un principe de précaution, le moratoire.

Conseils:

Il n’est pas possible de nier l’importance de la GED pour répondre notamment aux besoins de performances et de légalité. Si le projet est ‘sur la glace’, il devra donc être repris. Il convient donc de ne pas laisser au seul temps la faculté de repartir mieux la prochaine fois. Dans mes expériences, j’ai d’ailleurs, pu constater parfois une deuxième chute…

Les informations que je communiquerai dans mon prochain document, vous fournirons quelques clés de succès dans une approche pragmatique et performante. La priorité sera donnée à la recherche des bénéfices, dans un contexte de performance. La vision devra être proactive plutôt que réactive. La GED apportera ainsi sa contribution à la modernité des processus d’affaires intégrés aux réalités du virage numérique, sans devenir un système pieuvre et finalement inefficace.

Sans titre 3Il est impératif de continuer ou de mettre en œuvre une réflexion intégrée concernant ce virage numérique qui nécessite une trajectoire adaptée et un ajustement de la vitesse. L’arrêt, s’il apparaît sécuritaire comporte des risques préjudiciables à la finalité du projet. Le choix des contributeurs se révélera essentiel. Enfin le projet de GED ne pouvant être isolé, doit être intégré aux enjeux stratégiques et opérationnels.

20130214 Philippe Goupil   

Can  418 717 0359
US    949 208 1867
 

Projet GED et choix

20120907 recherche profile metadonnées

À la question quelles sont les solutions de GED disponibles sur le marché je réponds couramment qu’il en existe environ deux-cents ‘visibles’ et dignes d’intérêt sur le marché international dont plus d’une vingtaine au Canada.

Mais la question n’est pas de connaître la liste trop considérable de solutions variées disponibles.

En voici les raisons:

  • Le succès d’un projet de GED est rarement attribuable à son éditeur.
  • Le client et plus précisément l’équipe en charge de la GED est responsable au premier chef du succès ou de l’échec.

Contexte québécois 

Il est important de préciser quel est le contexte de la GED au Québec.

  •  Il y a beaucoup plus de constats d’échec, au Québec, en matière de GED, que de succès.
  • Il est quasiment impossible aujourd’hui de trouver une organisation pour laquelle la GED est déployée avec succès à la grandeur de l’organisation.
  • Le gouvernement du Québec à adopté l’appellation GID pour ‘gestion intégrée des documents’, alors qu’on peut déplorer qu’il ne dispose que de solutions souvent peu évoluées et rarement modernes. Ces solutions ressemblent plus à des SAE (Systèmes d’archivage électronique) qu’à des solution de GED. Le terme de GID est finalement assez prétentieux en regard de la performance offerte aux utilisateurs.
  • Un certain nombre de solutions sont disponibles et implantées au Québec, en provenance des États Unis, du Canada et de l’Europe, ou encore de la communauté internationale open source. Environs cinq éditeurs Québécois offrent des solutions. Il y a donc assez de choix !

 La bonne question

La bonne question pour déployer la bonne solution est de savoir pourquoi nous souhaitons utiliser une GED, et comment nous allons l’utiliser. Je ne dis pas nécessairement la meilleure solution, car cet exercice est probablement impossible. Comme déjà dit, la part de responsabilité de l’éditeur n’est pas majoritaire dans le succès d’un projet de GED,

La recherche de bénéfices est le meilleur argument et la cible principale.

La conformité et la légalité ne constituent que des composantes de la motivation, du choix et du déploiement.

Les bénéfices principaux se mesure en termes de productivité, ce qui comprend les économies d’espaces, de temps perdu, de déplacements, habituellement cités, mais s’appuie principalement sur une optimisation des processus. Au gouvernement on parle de compenser les départs à la retraite et mieux servir les citoyens. En entreprises on parle de réductions de coûts et d’accroissement de la rentabilité et des profits.

Pour choisir une solution il va donc falloir rechercher les points ou une solution de GED va permettre ces bénéfices dans un contexte technologique et culturel existant.

Les solutions de GED pré-retenues doivent répondre à des fonctionnalités de base de la GED permettant le dépôt et la recherche des documents dans un contexte de gestion optimum s’appuyant notamment sur les principes de gestion documentaire et d’archivage d’une part et d’amélioration des processus documentaires (Workflow).

L’erreur encore fréquente est de vouloir établir une liste exhaustive de critères de choix. Avec quelques spécialistes de la profession, nous nous accordons à supprimer ce genre de liste pour la raison suivante: Nous arrivons à un nombre dépassant les mille questions pour essayer de discriminer un produit parmi plusieurs dix ou vingt. L’exercice devient rapidement impossible voir stupide. En effet, il n’existe aucune solution capable de répondre positivement à la totalité des questions. Même si on applique des variantes rendant certains critères obligatoires et d’autres, optionnels l’exercice restera impossible. Par ailleurs si la question est de savoir si une solution répond à un critère, l’important est surtout de savoir comment. (exemple: la solution dit être interfacée avec SharePoint (Microsoft); oui mais comment en fonction de chacun des différents aspects de la relation)

Le conseil que je donne est donc encore une fois, de partir des points ou les bénéfices seront les plus tangibles pour définir la meilleure utilisation de la GED et non pas de la soit disant meilleure solution du marché qui pourrait être présentée dans un célèbre tableau carré…

À titre d’exemple, des éditeurs prestigieux peuvent avoir des références calamiteuses du fait d’une mauvaise utilisation de leur solution. À l’inverse des solutions modestes vont être capables de répondre à des besoins bien déterminés.

Investir dix ou quarante millions dans un projet de GED n’est absolument pas un critère de succès.

Image3 

La GED n’est pas chose compliquée, c’est ce que nous en faisons qui le devient!

Enfin, je constate que dans sa phase de pré-projet, la GED est parfois estimée jusqu’à dix fois moins de ce qu’elle coûtera, pour des performances potentielles sous estimées. La portée et les bénéfices à en attendre étant méconnus, la cible est, par voie de conséquence, mal définie.

Urgence !

Il est urgent de déployer la GED partout, mais avec calme, par étapes, et en commençant par des choses simples. La numérisation n’étant pas forcément le meilleur point de départ…

20121212 Philippe Goupil