La GED, c’est fini ! 

À la une

Ou plutôt,

les solutions pour gérer les documents tels que nous les connaissons vont disparaître à moyen terme. Les éditeurs vont devoir évoluer, se faire acheter, ou s’éteindre. Quant aux archivistes ou aux informaticiens concernés, c’est certain, leurs fonctions vont évoluer ou disparaître.

L’objectif principal et initial de la GED était de permettre la gestion de vos documents au travers d’un plan de classification et d’un calendrier de conservation, et bien entendu de retrouver vos ‘affaires’ dans la masse de ce que l’on appelait les archives.

interface-ged

Nous avons connu historiquement des solutions majeures et massives apparues dans les années 90, s’appuyant sur des bases de données SQL.

Le marché s’est développé progressivement au travers d’importants chantiers en clientèle, pour les gros joueurs comme Filenet (racheté par IBM en 2006), OpenText,  Stellent (racheté par Oracle en 2006) ou encore Documentum racheté en 2003 par EMC puis par Dell en 2016  qui l’a revendu à son tour, la même année, à OpenText.

Pendant ce temps, des solutions mineures ont su offrir aux marchés des organisations de moyenne taille, des fonctions plus accessibles, aux options plus nombreuses, plus proches des utilisateurs,  plus faciles à mettre en œuvre et moins coûteuses.

Puis, par la suite, la plateforme Sharepoint de Microsoft est arrivée pour tenter de rattraper ce marché avec une offre originale est très ouverte, suivie par des solutions open source (ouvertes par définition), comme Alfresco leader dans ce mouvement. Ces solutions ont, aussi été proposées aux petites et moyennes organisations. Finalement, le résultat est comparable aux grosses solutions. : Des projets souvent sans fin, aux coûts hors de proportions par rapport aux attentes de la clientèle.

Les solutions majeures

Ces solutions ont été conçues en premier lieu pour répondre à ce que nous appelions, à l’époque, de gros volumes en s’appuyant sur les bases de données SQL. L’ergonomie n’était pas vraiment une préoccupation prioritaire pourvu qu’il soit possible de conserver en sécurité et de rechercher ses documents.

Ces solutions ont, la plupart du temps, offert le service attendu à certains niveaux, mais  dans les projets d’envergure, la réalité a souvent été décevante. En effet, les dérives au niveau de l’adaptation aux règles d’affaires, et des contraintes d’intégration puis d’infrastructures, aggravées par une croissance majeure des volumes à traiter,  ont  mené à l’essoufflement de nombre de projets, voire à des impasses. Souvent, avec des solutions finalement amaigries au niveau des fonctionnalités, les utilisateurs se contentent  ultimement de rechercher leurs documents au travers de l’explorateur de leur ordinateur…Quant aux solutions ouvertes comme Sharepoint ou Alfresco citées plus haut, elles se révèlent justement trop ouvertes et deviennent finalement assez complexes.

C’est ainsi que les développements puis la maintenance peuvent prendre des proportions annihilant les bénéfices attendus, et confinent, ces solutions, aux mêmes résultats que les ‘Gros’ cités plus haut.

Les solutions mineures

Pendant ce temps se déployaient des solutions plus modestes développées à partir de DBase qui a connu ses heures de gloire lorsque Borland en était le propriétaire, ou Access de Microsoft ou encore FileMaker d’Apple.  Ceux que l’on appelait les ‘petits’ éditeurs, se sont attachés à l’ergonomie au niveau de l’interface utilisateur, et surtout à livrer une solution prête à l’emploi. Ils ont pris leur essor dans le contexte de la mise en service de la numérisation ou dans les projets d’archivage documentaire, pour des entreprises de taille moyenne ou certains services départementaux au sein de plus grosses organisations.

Les produits comme Scanfile, Laserfiche ou M-Files ont longtemps été cités comme ‘petits’. Si le marché ne leur a pas forcément donné la chance de démontrer leur capacité à gérer des volumes importants, ils ont eu l’avantage d’offrir des solutions achevées pour lesquelles les modifications et autres adaptations aux spécificités de chaque organisation se faisaient par simple paramétrage plutôt que par développement informatique. Ah!!!!! Si ces solutions avaient pu répondre à des cahiers des charges ambitieux réservés aux ‘grands’, ou apporter la versatilité et la simplicité de paramétrage plutôt que le codage des interfaces….

Offres complémentaires

Nombre d’éditeurs ont développé des fonctions complémentaires comme la numérisation, ou la gestion des courriels, ou encore des processus documentaires, comme des modules plus ou moins intégrés.

Parallèlement, ce sont d’autres éditeurs qui se sont consacrés à offrir, de manière autonome, en complément des solutions de  GED, des solutions de capture de données et la saisie automatisée de documents d’affaires comme les factures. On peut citer Kofax, ou Captiva, eux aussi rachetés depuis.

Certains acteurs offrent une approche de type ‘’tout inclus’’ avec des fonctionnalités additionnelles, issues, la plupart du temps, non pas de développements, mais de rachats de compagnies tierces, comme, par exemple, la gestion des processus, la gestion de la connaissance, et la BI pour l’intelligence d’affaires. Portée disproportionnées de la GEDC’est souvent une approche d’abord marketing. Cela ne permet de pas d’améliorer la performance de la solution d’origine, mais permet de séduire la clientèle, alors qu’il devient impossible d’empêcher la dégradation de la performance de la solution en place,  due, principalement, à la noyade des documents dans des volumes devenus gigantesques, dans le contexte d’un besoin d’intégration plus large et plus profonde au sein des systèmes des organisations.

Enfin, nous assistons à un début de concentration avec le rachat de Documentum par OpenText, ce qui en fait le plus gros joueur de la planète. Nous observerons bientôt le devenir des deux plateformes regroupées sous un même toit.

Mais il est maintenant trop tard pour considérer la GED comme une solution d’avenir!

La GED est en retard sur son agenda. Elle n’a globalement pas su livrer ce dont les organisations avaient besoin. Elle est surtout confrontée, désormais, à des contraintes importantes comme la performance des infrastructures et surtout de nouveaux enjeux légaux qui impliquent de ne plus gérer les seuls documents, mais aussi les données contenues dans ceux-ci et même les données détenues indépendamment par les bases de données.

En effet, la législation avance quant à la protection des renseignements personnels et l’accès à l’information.

Martello da Giudice

Alors:

  • Savez-vous ce que contient chacun des documents en votre possession?
  • Est-ce que la totalité des documents a été traitée de manière à en permettre la recherche plein texte?
  • Gérez-vous avec votre GED et ses règles, les documents en cours de collaboration au sein des processus d’affaires?
  • Savez-vous localiser les documents en double et les versions différentes de tout document au sein de votre système d’information?
  • Savez-vous localiser un unique document final signé et archivé?
  • Savez-vous gérer vos données et vos bases de données de manière à respecter les délais de conservation applicables comme ils le sont pour les documents
  • Êtes-vous satisfaits de votre solution actuelle?

Ma vision personnelle est la suivante :

La solution capable de répondre à ces enjeux anciens devenus gigantesques au niveau des volumes, et nouveaux pour lesquels ni les solutions ni des déploiements judicieux réalisés ne permettent de répondre, réside dans un virage majeur au niveau de l’architecture. Celui va d’une part scinder les activités pour les traitements et d’autre part, gérer la totalité des documents et des données en gouvernance au niveau de l’entreprise.

Les technologies sont là!

Il manque encore la connaissance sur le marché de ces solutions, de ces technologies innovantes, et la volonté de provoquer ce virage. Mais, attention, nous ne sommes pas loin du moment où plus rien ne sera possible pour traiter de manière uniforme l’ensemble des documents, et de garantir la conformité légale.

Par exemple, 2018 est l’année de la mise en application de nouvelles lois en Europe.

  • MiFID II, est une norme qui apporte des changements profonds sur la transparence des marchés financiers et défense des investisseurs
  • Le Règlement général sur la protection des données(RGPD)  (le règlement s’appliquera aux entreprises établies en dehors de l’Union européenne…)

Comment faire?

  • Nous sommes forcés de reconnaître que la GED traditionnelle ou telle que nous la connaissons encore aujourd’hui se résume ultimement à un plan de classification et un calendrier de conservation. Les métadonnées sont souvent surtout utilisées pour assumer ces fonctions. Cette vue ancienne et qui malheureusement perdure est très limitative et n’apporte finalement que très peu de valeur ajoutée aux organisations. Souvent, nous ne nous intéressons pas et ne prenons pas en compte l’information qui se trouve au sein des documents. Or le contenu et les métadonnées des documents constituent une mine d’informations ne demandant qu’à être exploitées, aujourd’hui ou plus tard.
  • Savoir exploiter au mieux l’information se trouvant dans les documents procurera un avantage stratégique et compétitif supplémentaire. Ce serait dommage de vouloir considérer la seule l’information associée aux documents sans prendre également en compte l’information référentielle se trouvant dans les différents systèmes d’information présents dans l’entreprise. Plus largement, il peut être très important, en complément d’un traitement complet de l’information, que celle-ci soit de nature structurée ou non structurée, d’exploiter l’information résidant à l’extérieur de l’entreprise.
  • Les solutions de GED actuelles n’apportent pas de réponses efficaces à ces problématiques. De la même manière, les solutions basées sur des bases de données relationnelles sont incapables de traiter de manière performante l’information de nature non structurée.
  • Afin de répondre à ces enjeux, nous devons nous tourner vers des solutions innovantes permettant de collecter, contrôler, corréler et effectuer de l’analyse prédictive et descriptive de très grands volumes de données hétérogènes de nature structurée ou non structurée. Cette approche permet de combiner le meilleur des solutions de GED et des solutions basées sur les bases de données relationnelles mais en s’affranchissant de leurs contraintes et limitations.

 

Cette révolution dans l’architecture se légitimera par l’utilisation mutuelle des données et des traitements. Par exemple, si un processus d’affaires utilise et met à jour une information celle-ci sera disponible avec sa mise  jour pour le reste des systèmes de l’organisation. Ainsi les investissements de chacun profiteront à tous.

À l’arrivée de l’Intelligence d’affaires nommée BI, et des ERP, la fusion de l’information a été rendue possible grâce aux ETL. La mutualisation, de son côté,  l’a été grâce aux EAI  devenus aujourd’hui plus évolués sous le terme ESB .

Aujourd’hui Big DataFotolia_55654343_XS.jpg et croissance des demandes requérant de l’intelligence artificielle, pour des processus de plus en plus automatisés, voire robotisés, provoquent une croissance de la manipulation des données dans des proportions gigantesques.

 

Si nous devions lister les principales caractéristiques de la solution idéale, elles seraient les suivantes :

  • Gérer et stocker de très grands volumes de données structurées et non structurées (documents, fichiers multimédias, courriels, etc.).
  • Offrir les fonctionnalités classiques attendues par une GED (consultation, contribution, gestion des versions, gestion des politiques de rétention, recherche plein-texte, etc.)
  • Savoir exploiter les métadonnées comme des données
  • Intégrer aisément toute source de données existante et future (GED, progiciels de gestion intégrés, bases de données relationnelles, ressources disponibles sur Internet, etc…)
  • Permettre une intégration non perturbatrice avec les systèmes informatiques existants.
  • Assumer la cohabitation ou la migration de plusieurs solutions de GED au sein d’une même organisation
  • Pouvoir enrichir dynamiquement les documents d’informations pertinentes
  • Automatiser la classification et le marquage des documents
  • Corréler aisément les données non structurées et structurées, de différents systèmes
  • Proposer un moteur puissant d’indexation et de recherche
  • Offrir la fonction de bi-temporalité. (La bi-temporalité permet de disposer d’un tableau précis des données, à tout moment. Cette fonction s’avère particulièrement utile au sein des secteurs réglementés. La bi-temporalité permet d’obtenir de meilleures réponses aux problématiques posées par les données d’aujourd’hui, d’hier et de demain.)
  • Assurer un haut niveau de sécurité afin d’assurer la protection et la confidentialité des données.
    • Chiffrement des données
    • Non-exposition de certaines données sensibles ou remplacement par d’autres valeurs pour éviter les fuites de données. (accès restreints ou caviardage)
    • Sécurité au niveau des éléments spécifiques ou des métadonnées des documents pour apporter un niveau de sécurité encore plus granulaire qu’une sécurité réalisée au niveau du document.

 

Conclusion :

Success.3D little human character The Successful. People series.La GED va persister en tant que règles dans l’architecture évoquée ici dans cette vision. Celle-ci sera composée, par exemple, de moyens de type ETL moderne ultra performant et d’ESB, s’appuyant sur des bases de données de type NoSQL. Des moteurs de type sémantique statistique et même prédictif seront utilisés pour créer avec les données ce qui s’appelle de l’Intelligence Artificielle. La gouvernance ou l’interopérabilité de l’information sera implicite et sécuritaire.

La classification des documents, et désormais des données, sera représentée dynamiquement aux utilisateurs, en fonction des règles de classification d’une part et des règles d’affaires et de sécurité de l’autre. Le calendrier de conservation des documents comme des données sera appliqué au travers de règles, pour être déclenché de manière événementielle.

Cette approche que je juge et souhaite disruptive est comparable, par exemple, à l’avènement des serveurs en réseaux au début des années 90 en remplacement des  Mainframes ou Gros systèmes, seuls capables de faire les traitements demandés jusqu’à cette époque. Cette génération, encore présente, apportait un grand progrès en étant plus performants, moins cher, et plus souple à déployer et à maintenir.

Pensez-y et  gardez ce document en mémoire; nous en reparlerons probablement bientôt.

Philippe Goupil

 

 

 

L’intelligence Artificielle est elle vraiment intelligente?

Le terme AI (ou IA en anglais) pour Intelligence Artificielle est aujourd’hui un des sujets préférés de notre actualité technologique, sociale, et même politique, au détriment du BIG DATA, qui subit une sorte de désintéressement ou de banalisation.

Ceci démontre une certaine confusion et un usage à mauvais escient de cette appellation d’intelligence artificielle. En effet, le BIG DATA est un constat appelant à des solutions pour retrouver et utiliser l’information qui se trouve de plus en plus noyée au milieu d’une masse de données à la croissance folle. La réponse se fait d’une part par des infrastructures de stockage de plus en plus grandes et rapides, et d’autre part au moyen d’outils d’analyse sémantique, statistique et prédictive, s’appuyant, notamment, sur de nouveaux concepts de gestion de bases de données.

L’intelligence artificielle

Ce terme assez ancien, décrit la capacité pour une  »machine » à réagir de manière dite intelligente, et autonome en répondant à un événement ou à fournir un résultat, fruit de calculs souvent complexes. L’IA inclut la capacité d’auto-apprentissage permettant d’augmenter le référentiel de connaissances de la machine et donc l’acuité de ses résultats et de ses décisions.

Je dis bien  »de manière dite intelligente », pour souligner que, de là à dire qu’un calculateur, un téléphone, ou une automobile est intelligent, il y a une marge importante. Certes les capacités cognitives des réseaux neuronaux ou du « deep learning » par exemple, permettent d’effectuer des calculs impossibles pour un humain notamment à cause des contraintes de volumétrie ou de vitesse; mais cela ne doit pas nous permettre de laisser croire que la ‘’machine’’ raisonne, ou crée. L’usage du mot intelligence dans ‘’intelligence artificielle’’, est actuellement impropre.

Ce que l’on nomme donc ici, abusivement ou prématurément, intelligence n’est que la supériorité, en termes de puissance et de capacité de la machine. La nouveauté c’est que le phénomène  »BIG DATA » permet, maintenant, à ces supercalculateurs et super logiciels de travailler avec cette masse d’informations sans laquelle ils ne sauraient quoi faire…

En fait, nous sommes en face de technologies qui ne sont pas forcément nouvelles, mais qui permettent, aujourd’hui, de fournir rapidement des résultats précis et exactes au moyen de calculateurs s’appuyant sur des référentiels gigantesques. Ces résultats vont permettre de faire exécuter de nouveaux calculs ou de déclencher des processus ou script précis, en servant de bases de références pour des calculs ultérieurs encore plus complexes. Les Fintech, technologies dédiées à la finance, par exemple, utilisent de plus en plus ces performances pour anticiper les cours, en créant des modèles complexes à partir des historiques financiers et de référentiels économiques industriels et socio-économiques. De mon point de vue, la seule intelligence à ce niveau, réside dans le paramétrage de l’outil face aux variétés et spécificités de chaque type de valeur, ainsi qu’à la manière de programmer l’outil, avant de donner le travail au calculateur. 

Référentiels :

Avant de parler même d’intelligence, il n’y a pas de performance de recherche ou de traitement sans référentiel.

À titre d’exemple, dans le monde de la reconnaissance de mots, de formes de la parole ou de visages, les logiciels existent et sont performants depuis une quinzaine d’années. Le problème réside dans le nombre de références comparables. On parle de référentiel. Prenons le cas d’un outil de reconnaissance optique de caractères (OCR). Celui-ci va comparer ce qu’il ‘’voit’’ avec quelques centaines de formes de caractères, puis des dictionnaires de plusieurs milliers de termes, pour reconstituer le texte d’un document. Les références requises pour l’OCR, représentent finalement très peu de choses face aux volumétries d’informations concernées par le BIG DATA

En comparaison, pour reconnaître une forme, sur le web, il faut avoir suffisamment d’échantillons différents parmi les  »comparables », capables d’être discriminés parmi des milliards. Cependant, à partir de votre ordinateur, et avec un outil comme Google-images, il est assez facile de reconnaître les visages. À partir du moment où, depuis une image, on indique un nom, celui-ci sera progressivement affecté aux photos qui contiendront les principales caractéristiques d’un même visage, dans des situations et à des dates différentes. La raison en est ici que le nombre requis de personnes  »taguées » et celui des personnes à reconnaître ne dépassent pas quelques dizaines.

À l’inverse si je place ma photo photo-lkdindans la recherche de Google en mode image sur le web, le système va me fournir différentes photos ayant prioritairement la caractéristique générale la plus flagrante : Pour moi, la calvitie ou au moins un grand front…

google-image

test

Mais si vous faites maintenant l’exercice suivant:

Cherchez  »Tour Eiffel » sur Google / capturez l’image / enregistrez la sur votre ordinateur / dans Google en mode image déposez l’image de la Tour Eiffel enregistrée / et cliquez sur ‘’rechercher’’. Vous n’obtiendrez que des images de la Tour Eiffel, ni d’aucune autre tour. Pourquoi?

La Tour Eiffel est photographiée environ trois cent mille fois par jour et enregistrée sur internet des centaines de milliers de fois par mois. Ainsi le référentiel de la Tour française est devenu un des plus important en termes d’images. La reconnaissance est ainsi devenue la plus facile.

En revanche, si vous recherchiez une image de la Tour Eiffel sur votre ordinateur vous seriez probablement déçus. Votre ordinateur serait-il ‘’idiot’’?

Exemple d’utilisation impatiente de l’idée d’une intelligence artificielle :

Mark Zuckerberg de Facebook, se trompe (ou bien nous fait croire qu’il ne sait pas). Dans une vidéo, il veut nous convaincre de l’intelligence de son système Jarvis…Mais ce n’est pas encore très intelligent!

  • Jarvis le réveille (comme un réveil que Mark aurait réglé sur une heure choisie)
  • Bonjour (Jarvis parle au lieu de simplement sonner, comme mon GPS)
  • Jarvis lui indique qu’aujourd’hui il a cinq rendez-vous (transmission de ce qui est dans un agenda)
  • Jarvis lui annonce la météo (transmission de ce que la Météo lui fournit)
  • Jarvis lui dit que le café est prêt et Mark nous dit que Jarvis sait quand il faut faire son petit déjeuner… (on lui a donné l’heure du réveil et le délai pour que le café soit prêt à temps. De plus une cafetière programmable ça existe depuis plus de vingt ans.)
  • Jarvis propose les vêtements du jour en fonction de la météo et des goûts de Mark (Jarvis connait la météo puisqu’il l’a déjà utilisée pour en donner le contenu à Mark il y a une minute. Jarvis propose un T-shirt, probablement comme chaque jour pour un gars au comportement minimaliste qui habite la Californie, Bravo Jarvis!)
  • Jarvis prévient Mark pour lui dire que les toasts son prêts (probablement une caméra surveille le toaster avec une détection de mouvement par exemple, mais qui les a placé dans le toaste, Jarvis?)
  • Mark demande un renseignement pour sa conférence prochaine. Jarvis reconnait des mots et fournit des réponses inscrites dans l’agenda
  • Marc commande de la musique et Jarvis demande des précisions ou propose des alternatives car la musique demandée n’existe pas (ça ressemble au ‘’essaie encore’’ du jouet de Texas Instrument en 1988 lorsque l’enfant a choisi une mauvaise réponse)
  • Jarvis reconnait Mark quand il lui parle, et sa femme si c’est elle. (Reconnaissance vocale)
  • Jarvis reconnait les visages des visiteurs avec la camera (reconnaissance avec la base de connaissance des amis alors que les noms associés sont dans l’agenda) et il dit à Mark que les invités de ce soir sont arrivés
  • Jarvis surveille que l’enfant en bas âge sort de sa chambre. (Caméra de surveillance et détecteur de mouvement au niveau de la porte)
  • Jarvis reconnait des ordres et Mark lui dit que c’est le temps de regarder un film. Alors Jarvis propose un menu de film (Comme Netflix)

Mais où est donc l’intelligence?

Lorsqu’un système sera capable de composer comme Mozart ou Elton John, ou de peindre comme Cézanne; lorsqu’il pourra avoir une réflexion philosophique; et lorsqu’il fera de l’humour mieux que nos humoristes, ce sera plus proche de ce que je prends pour de l’intelligence. Bien sûr, pour cela il doit falloir avoir une pensée voire une âme…

Je ne nie pas que les technologies avancent sur des terrains qui sont sérieux alors que l’organisation de l’économie planétaire et du marché du travail, est au début d’un bouleversement majeur. Mais d’ici à ce que le pouvoir soit pris par les robots, il y a encore du chemin à faire, à moins que les hommes ne les programment justement pour cela…

Montaigne disait : ‘Mieux vaut une tête bien faite qu’une tête bien pleine’. Considérons que nous en sommes à une tête bien pleine.

Philippe Goupil

Pourquoi Microsoft a fait un bon coup ?

Sans titre 2

LinkedIn, qui est probablement encore un produit en devenir, est depuis des mois en recherche d’un nouveau souffle. Le nombre des utilisateurs ne progresse pas assez vite et les activités des membres (conversations publications, etc.) semblent stagner. En effet, nous subissons des relances systématiques pour féliciter, témoigner et accorder des crédits de compétences à des personnes que nous ne connaissons pas toujours bien. LinkedIn ‘drague’ ses membres comme Facebook qui de son côté nous demande si on veut créer un nième groupe, s’attacher sans cesse de nouveaux contacts abusivement nommés ‘amis’, re-poster nos publications des dernières années, ou même vendre quelques choses.

Alors pourquoi les stratèges de chez Microsoft ont-ils cherché à acquérir un réseau social d’envergure et pourquoi LinkedIn précisément?

Voici mon point de vue, qui s’appuie sur certaines expériences qui m’ont permis de bâtir une vision de ce que pourrait devenir une plateforme individuelle à portée simultanément collective professionnelle et privée, et centrée sur l’individu ainsi que ce que nous appellerons ses connections; c’est-à-dire ses contacts et ses informations.

Alors pourquoi LinkedIn ?Why. The Dude looking at red question mark.

D’abord parce que justement ‘pas Facebook’.

En effet Facebook a fait sa percée dans le domaine individuel et privé même s’il y a des velléités de développement avec certaines connexions entre le ‘business’ et le consommateur, au travers d’un axe nommé B to C par opposition au B to B ciblant lui, les relations entre professionnels. Mais la présence des professionnels sur Facebook est probablement, actuellement, plus un vecteur de ‘Branding’ avec sa nécessaire occupation de l’espace, qu’un véritable terrain de commerce en ligne,  espace qui, lui, est fortement comblé par un Amazon galopant. Et puis Facebook, avec sa valeur en bourse de plus de 300 milliard de $, est de toute manière inaccessible .

Si LinkedIn était la cible pour ce qu’il représente en termes d’audience et de fonctionnalités, cela pourrait se résumer à un outil partagé pour le recrutement, avec un bouquet de membres gratuits et payants certes, mais des fonctionnalités encore balbutiantes, qui ne rapportent pas suffisamment. Les outils comme la recherche restent très faibles notamment au niveau de la discrimination. (Rechercher un Bernard Martin en France ou un Jacques Tremblay au Québec relevant de la roulette ou de la mission impossible, pendant que la recherche d’un comptable sur la région de Montréal ou d’ile de France va vous donner le tournis avec des réponses encore une fois peu discriminantes).

Le nombre de nos contacts, qui ne sont heureusement pas tous des amis, peut avoisiner couramment des milliers, et il ne se passe pas une soirée sans qu’en rentrant chez moi je m’aperçoive que plusieurs personnes avec qui j’ai parlé ou que j’ai croisées, dans la journée, faisaient déjà partie de mon cercle de contacts… LOL ! Que l’on pêche les contacts à la ligne ou avec un chalut, le résultat est similaire, en dehors du volume. Ces personnes, je les trouve sympathiques car elles disent que je suis performant dans des tas de domaines, même si nous n’avons jamais travaillé ensemble et même si je n’ai pas tant de compétence que cela dans les domaines cités… Si une femme montre une belle photo dans son profil, elle va recevoir des tas de sollicitations et des tas d’approbations sur ses qualités professionnelles dans tous les domaines. Si une personne à une fonction élevée elle va avoir des sollicitations en permanence. Inversement, et logiquement, si une personne possède un nombre important de contacts ce serait parce qu’elle est justement importante… Bref LinkedIn est un réseau de contacts brillants voir exceptionnels bons dans tout. Alors acheter un réseau de faux contacts juste pour avoir les adresse courriel ? J’ai des doutes et Je pense que pour quelques centaines de dollars on doit pouvoir trouver sur le net de quoi les avoir…

Non, Microsoft ne peut pas payer 26 milliards de dollars pour LinkedIn !Signed agreement

Sauf si la vraie cible n’est pas une de celles mises en avant, dans certains articles récemment parus sur le sujet, comme le développement de l’utilisation de Dynamics son CRM (outil de gestion de la relation avec la clientèle) ou encore l’envie d’avoir enfin son réseau social allant au-delà de l’entreprise ce que ne fait pas son outil actuel, Yammer. Non, pour moi la vraie raison est une vision logique de là où nous allons, et où Microsoft veut nous attendre avec une offre si naturellement pertinente que nous ne pourrons pas la refuser.

 

Microsoft a eu raison d’acheter LinkedIn !3d small people - installation of check marks

Analysons ensemble, l’offre actuelle de Microsoft. Au niveau individuel, la suite Office 365 nous permet, pour quelques dollars mensuels et indolores, de ne plus nous soucier de trouver comment pirater ce qui est devenu l‘unique moyen’ d’écrire des lettres, de faire des factures et des calculs, ainsi que des présentations ou encore de gérer des listes et des fichiers de contacts ou de produits, et encore aussi, bien entendu, d’échanger des courriers sans se soucier de comment et le tout sans limitations.

Au niveau professionnel, nous pouvons observer l’outil SharePoint vendu comme un produit devenu, désormais, incontournable sur le plan commercial, les offres en CRM effectivement avec en bonus une ouverture de type ERP, et enfin, bien entendu, le monde immense de l’infrastructure avec des SQL et autres solutions pour nos réseaux d’entreprises, dans le contexte d’un catalogue pour lequel les organisations n’ont plus qu’à remplir leurs bons de commandes en toute sérénité.

Non Microsoft n’avait pas besoin d’acheter LinkedIn afin de répondre à cette vision d’avoir un réseau social.Sphère stratégie Microsoft a eu simplement une bonne analyse du marché en devenir, parce que la culture change et va changer encore sur les points évoqués ici, et c’est pour cela qu’elle a eu raison ! En effet, ce qui a changé et qui va développer, réside dans le comportement et la culture de chacun de nous. IL Y A, DÉSORMAIS, CONFUSION ENTRE LA SPHERE PROFESSIONNELLE ET LA VIE PRIVÉ.

Nous avons acquis des habitudes qui désormais décloisonnent nos agendas individuels au profit de la permanence de notre disponibilité à consulter d’abord puis à contribuer à un formidable réseau de communication dont l’utilité n’a pas encore pris la place de la curiosité. Après avoir acquis et utilisé la communication c’est nous même qui devenons communication et vecteur d’informations. Cette nouvelle culture est possible par cette confusion des genres qui efface progressivement la séparation dans le temps entre pro et privé.

Alors pourquoi acheter LinkedIn à ce prix?

Ma réponse est simple. Il aurait été fort coûteux de se battre avec Facebook sur le front du grand publique et de l’usage individuel personnel en même temps que de vouloir développer un concurrent de LinkedIn sans avoir de base, et risquer de laisser LinkedIn se faire avaler par le monstre Facebook qui aurait pu viser la même cible, et barrer, ainsi, la route de Microsoft. Pour mémoire Google elle-même a cru possible de battre Facebook sur son terrain avec une application qui offre pas mal de fonctionnalités utiles, mais pour lesquelles il a fallu partir de zéro pour développer un véritable réseau de contacts interconnectés. Il y a, en effet, une masse critique nécessaire pour lancer une telle aventure et LinkedIn, justement, la possède avec ses cinq cent millions d’utilisateurs, alors que Google ne l’ayant pas eu et ayant offert une solution insuffisamment démarquée, reste encore très en retard. Microsoft a probablement attendu l’adoption plus franche, par les pays Européens, de la plateforme pour annoncer son ambitieux projet de rachat, afin de sécuriser un peu plus sa stratégie.

Microsoft gagne sur deux tableauxFrau im Support mit Headset im Callcenter, à la fois en récupérant un nom, un modèle, et une base d’une part, et d’autre part, en la retirant des cibles potentielles de Facebook contraint, désormais, de développer un concept ‘PRO’ à un moment ou l’adhésion aurait tendance à décliner, même si sa valeur démontre une excellente santé. Nous savons bien que les nombreuses acquisitions de Facebook influencent dans une proportion importante la confiance des investisseurs alors que l’application originale pourrait être affaiblie, par exemple, par un nouveau modèle de communication made in Microsoft ou un autre projet Google, pourquoi pas.

Regardons maintenant ce que Microsoft pourrait nous proposer dans un futur, probablement pas si futur.

L’utilisateur, vous, moi, tous ensemble nous allons chacun gérer notre environnement unique de communication avec les solutions du catalogue Microsoft, pour notre environnement personnel dans le contexte professionnel et privé.

J’ai, par exemple, des vrais amis, des contacts privés, des contacts professionnels et des clients. Un interlocuteur peut appartenir à une ou plusieurs de ces catégories. Jusque-là c’était l’idée de Google +. Mais là ou l’offre pourrait changer c’est dans la manière de le dire et de le définir. Le moyen pour cela consiste à utiliser un outil de CRM qui va permettre de saisir des tas d’informations descriptives que nous appelons dans notre jargon des ‘métadonnées’.

Ainsi Jacques Tremblay qui est devenu un ami était d’abord un client. Il est toujours mon ami, et je possède ses deux adresses courriels distinctes, et un numéro de téléphone cellulaire unique. Nous jouons au hockey ensemble et partageons des évènements privés et professionnels plusieurs fois par année. Je suis la même personne et Jacques est toujours la même personne, quel que soit le type de relation que nous avons.

Microsoft me permet de gérer mes relations personnelles et professionnelles avec un même outil. Comment ? En gérant des critères et des règles pour me conserver les accès privés tout en partageant les informations professionnelles de manière déconnectées ou décentralisées en cloud par exemple, pour mes activités professionnelles et avec mes collaborateurs dans l’entreprise. Finalement de manière comparable à ce que fait notre cerveau en nous apportant la capacité de distinguer les gens les choses et les événements selon les circonstances. Notre mémoire et la zone de stockage et nos capacités intellectuelles l’application, alors que l’intelligence constitue la performance.

Microsoft a ses bases de données, ses serveurs sur site ou en Cloud, et ses outils collaboratifs comme Office et SharePoint pour les documents ou Skype pour les conversations, par exemple. Les éléments descriptifs de chaque contact constituent donc des métadonnées. Certaines seront du ressort de la vie privée et d’autres de celui de la vie professionnelle, et le tout constituera un ensemble unique de critères descriptifs.

Les droits d’accès et de partage d’informations se feront à partir des critères et règles attachées à ces métadonnées.

Ainsi mon ami Jacques

  • Est un homme
    • Français immigré au Canada
    • Joueur de hockey
    • Skieur
    • Joueur de Tennis
    • Amis de mon cousin Benoit
  • A trois enfants
  • Sa femme est directrice d’une école
  • Directeur de la communication chez Oratour à Québec
  • Anciennement responsable Marketing chez SOS cuisine
  • Membre de la chambre de commerce de Québec
  • À acheté une Audi A4 en 2016
  • Cherche potentiellement un nouvel emploi
  • Cherche à acheter un chalet vers Kamouraska
  • Est grand père deux fois
  • Nous avons des photos ensembles
  • Mon fils Quentin joue au soccer avec son petit dernier Louis
  • Etc….

Dans ma journée de 24 h, je peux le contacter pour des affaires de communication avec ma firme, et à d’autres moments, échanger sur des sujets privés, tout cela individuellement ou dans le contexte d’un groupe ou d’un envoi groupé.

Actuellement c’est déjà ce qui peut se passer ou se passe. Sauf que se connecter à LinkedIn relève plutôt d’une démarche pro alors que consulter son Facebook est une action cataloguée de purement privée. Et donc pendant la période de travail les accès ne sont pas acceptés de la même manière. Avec Microsoft, dans quelques années l’unique interface sera légitimée partout. La responsabilité incombera à l’usager de doser ce mélange sans porter préjudice à la finalité de son activité professionnelle. Les cadres des organisations auront aussi un regard différent puisque le privé fera partie de la même sphère que le professionnel. Nous sommes exactement comme cela aujourd’hui, mais seuls le calendrier et la pendule nous guide. Demain ce seront d’autres critères. Pour compléter cette observation j’ajoute volontiers que bien des organisations empiètent déjà sur la vie privé de leurs employés en leur fournissant un téléphone qui permet d’une part de les joindre, et d’autre part de les localiser. Alors probablement que la compréhension sera partagée dans le futur…

La téléphonie a tracé le chemin pour parvenir à une telle vision. Constatons ensemble que les téléphones cellulaires offrent, souvent, une puissance fonctionnelle supérieure à ce que l’entreprise permet. Soulignons que les usagers peuvent s’adapter à la simultanéité des moyens évoqués plus haut, puisque déjà leur téléphone, dit intelligent, permet de gérer aussi bien des communications privées et professionnelles comme aussi, des courriels, Skype, ou la messagerie, sans oublier la téléphonie elle-même, fonction de moins en moins utilisée.

Alors oui, je crois que Microsoft a fait un bon coup.

Technology in the handsL’histoire dira si ce coup sera transformé en un succès
important et une croissance nouvelle pour la firme de Redmond, pour autant qu’elle sache être suffisamment agile pour suivre l’évolution culturelle des utilisateurs. Ces utilisateurs qui ultimement décident, adhérent mais, aussi parfois, ‘débarquent’ du concept ou de la mode, brutalement.

J’ai rédigé cet article à partir de mon bureau et je l’ai achevé dans mon salon !…

J’ai hâte de voir la suite !!!!!  Office ou sa remplaçante 😉

Bien à vous.

Philippe Goupil

 

 

 

 

 

 

 

6 juin 1944, tout un projet !

Aujourd’hui 6 juin, le monde célèbre cette journée en mémoire de celle de 1944 qui est reconnue comme l‘évènement déclencheur de la libération et de la fin de la seconde guerre mondiale.TIMG_27519396511180496945381

Je suis personnellement touché par le dévouement de ces soldats et impressionné par la puissance déployée et l’issue de ce projet majeur. Comme chaque année à la même date, je rends hommage à ces héros. Aujourd’hui, je souhaite souligner dans ces colonnes professionnelles certains points que vous mettrez peut-être en perspective avec, vos idées, vos projets, et vos succès.

Cette guerre est probablement la première qui s’est gagnée par l’innovation technologique mais surtout grâce à une logistique opérationnelle d’envergure. On sait, à l’inverse, que notre ennemi Hitler, lui, était au bord de la panne d’essence à cette période…

Pourquoi?

Une création qui a contribué à ce succès est l’utilisation de la ‘palette’

La palette de manutention a été créée aux États-Unis au début des années 1940 par le dépôt des équipements de la Marine de Brooklyn. Ce service envisagea la construction des contenants, non pas en considérant la marchandise qu’il devait transporter mais le fait qu’il aurait à remplir complètement le wagon dans lequel ces marchandises seraient chargées. Cette idée nouvelle et sa mise en pratique sont dues au capitaine Charles D. Kirk et à son adjoint le lieutenant Walter T. Sheldon. Ils prirent pour base le plancher d’un wagon qui fut divisé en carrés de 1,20 mètre de côté. Ensuite ils commandèrent des cartons de dimensions telles qu’ils couvraient exactement la palette, selon différentes combinaisons1. C’est la Seconde Guerre mondiale et le Débarquement qui ont permis son essor, ininterrompu jusqu’à maintenant.  (sources Wikipédia ).

Le conteneur, lui, a été inventé sur la côte ouest des États-Unis en 1956 et a trouvé son essor au cours de la guerre du Vietnam.

Le port d’Arromanches a, dans son ingénuosité pragmatique encore une fois, permis les flux de transfert de millions de tonnes d’approvisionnementpour toute l’Europe

Pour ma part, je retiens que c’est l’analyse préalable, combinant celle du besoin existant et connu, à celle du besoin ‘en devenir’ qui permet d’offrir, en temps, les solutions nécessaires. La connaissance du terrain, l’expérience du passé, et la vision éclairée par l’expertise apportent par cette anticipation pragmatique, le succès.

Je considère que l’écoute de ceux qui opèrent sur le terrain est probablement une des meilleures sources d’anticipation du progrès. Dans le cas des palettes ou des containers, ce ne sont pas des solutions technologiques qui ont fait la différence, mais des principes finalement simples, bâtis autour de la connaissance métier.

Nous sommes souvent prétentieux ou maladroits et depuis ces années de guerre nous avons, probablement trop souvent, répondu à des besoins par des ‘technos’, plutôt que commencé par des règles et des principes, pour aller chercher ces technos comme catalyseurs de l’applications nos choix stratégiques réfléchis.

Je vous souhaite d’abord, une bonne journée de mémoire et ensuite d’y repenser encore.

Cordialement

Philippe Goupil

 

La GED: Une décision stratégique

À la une

À bien y regarder,

Les projets de Gestion électronique de documents au sens large (GED / ECM), sont plus souvent des projets inachevés, ou carrément des échecs, et en tout cas, souvent des demi-succès à la portée réduite.

Why. The Dude looking at red question mark.On constate que ces projets sont menés par des équipes incomplètes, pour lesquelles, des compétences manquent. Les informaticiens et les archivistes constituant la majeure partie des responsables et intervenants, représentent deux populations qui font au mieux de leurs connaissances et avec leurs perceptions. Ainsi, selon l’équipe qui va prendre les commandes du projet, celle-ci va répondre, en priorité, à des réalités archivistiques ou à des réalités technologiques. Au bilan, l’organisation va pouvoir ‘ranger’ ses documents aux bons endroits, et donner des accès aux bonnes personnes, le tout selon les périodes requises par les trois stades du cycle de vie de chaque document. On parle, ici, plutôt de gestion documentaire en version numérique. Finalement, avec les outils disponibles aujourd’hui, une équipe technique peut développer un outil de classement et de recherche avancée en créant des règles de gestion conformes aux contraintes légales et archivistiques, s’appuyant sur une gestion stricte des droits d’accès, en appliquant ce qui se fait en partie à partir d’outils de travail collaboratifs du marché… Mais n’est-ce justement pas là où aboutissent un certain nombre de projets ?…

À bien y repenser,

Render Concept of a DMS - Document Management Word CloudLa Gestion électronique de documents n’est finalement pas un système à part entière, sauf pour l’activité d’archiviste de manière exclusive. Elle doit être un outil au service des processus d’affaires et des utilisateurs. On retrouve, entre autres, dans les objectifs de la GED, ceux de ‘rationaliser‘ les processus, augmenter‘ la productivité, ‘faciliter‘ les opérations dans des emplacements multiples et distants, ‘rencontrer les exigences‘ de conformité, ‘faciliter‘ le travail du personnel, ‘fluidifier‘ et ‘accélérer‘ les communications. 

À ce titre une telle solution doit être pensée et mise en oeuvre par une équipe pluridisciplinaire qui devra offrir des compétences en architecture d’entreprise, en gouvernance de l’information et des processus, ayant, effectivement, des compétences technologiques et archivistiques, mais aussi psychologique et pédagogique. En effet après des années passées au milieu des utilisateurs, je peux confirmer que ce qui se dit souvent, s’oublie au moins aussi souvent; à savoir que la gestion du changement est un point d’articulation de ce projet stratégique parce que sensible.

Il devient, donc, évident que pour le projet de GED prenne sa valeur et réussisse, celui-ci doit être issu d’un besoin lié au processus d’affaires.

Sphère stratégieEn conséquence, ma conviction est qu’une décision stratégique proactive et non pas une réponse à une pression légale ou technique, doit initier le besoin de GED. Ainsi semblerait-il naturel qu’un projet de gestion électronique de documents trouve, par exemple, son origine au sein de l’équipe de Marketing stratégique d’une industrie, ou de la direction générale d’une organisation gouvernementale.

Les besoins principaux seront formulés dans un langage opérationnel qui une fois traduits en fonctionnalités décriront les besoins concernant les processus, les utilisateurs, et les règles pour les documents et leur accès, par exemple.

ECRAN1

Ainsi le cahier des charges pourra s’enrichir de critères portant sur la stratégie et la finalité d’affaires plus que sur les centaines de fonctionnalités extraites d’un guide archivistique, sans discernement, auxquels, la majorité des éditeurs de solution, répond positivement.

La clé du succès résidera dans votre capacité à

3d small people with a checklist

  • Avoir une vision d’entreprise, comprise et détenue par la haute direction
  • Traduire les besoins, et faire des choix stratégiques et opérationnels pour établir les bonnes règles en conformité avec la vision et les choix de l’organisation, dans le respect des lois en vigueur.
  • Intégrer la GED en gouvernance au sein des processus d’affaires
  • Positiver le changement organisationnel auprès des utilisateurs
  • Évaluer en permanence la performance de la solution

______________________________________________

Des solutions au secours des documents non-structurés

Le 5 décembre 2013, à la vitrine technologique du gouvernement du Québec

J’aurais le plaisir de vous présenter les sujets brûlants suivants

Inventaire et nettoyage des serveurs :

Il s’agit de l’analyse de votre voûte documentaire et de vos serveurs pour offrir l’inventaire très précis des différents documents et fichiers stockés. Le rapport de cette analyse vous permettra de nettoyer vos bases des documents obsolètes, ou multiples. Si votre solution de GID GED offre des rapports, aucun autre système ne sait fournir, aujourd’hui, un audit aussi précis. Cette solution intègre à la fois à votre voûte GED mais aussi les serveurs qui ne sont pas gérés ou accédés par la GED

Les bénéfices immédiats sont :

  • diminution des espaces de stockage
  • tri par type, famille, dates, etc…
  • mise en valeur des documents dans leur bonne version
  • découverte des version multiples
  • découverte des documents et informations ‘perdues’
  • épuration des courriels actuellement archivés
  • augmentation de la qualité de la GID-GED et du système d’information
  • augmentation de la performance
  • coût de traitement fortement réduit
  • la solution à une préoccupation de plus en plus généralisée

Traitement automatisée et intelligent des courriels

Il s’agit de traiter tous les courriels entrants et sortants, d’en extraire automatiquement, ce qui est habituellement récupéré par une intervention humaine, pour

  • analyser les courriels en entrée et en sortie
  • générer automatiquement les métadonnées
  • s’intégrer avec la solution de GID-GED
  • analyser des fichiers pst et autres types
  • épurer les zones de stockage des courriels

Bénéfices :

  • Localisation sur les serveurs des courriels contenant des éléments ou informations à valeur légale ou contractuelle
  • Nettoyage des archives de courriel
  • Automatisation du classement (instantané, et à posteriori)
  • Contrôle de la conformité des envois
  • Contrôle de la sécurité en sortie
  • économies de traitement
  • intégration avec les processus d’affaires
  • augmentation de la qualité de la GID GED

Share Point : Capture automatique des métadonnées

Il s’agit de rendre l’utilisation de SharePoint plus aisée y compris dans un système de GED tiers. La solution que nous vous montrerons permet de manière simple, d’extraire toutes les métadonnées ‘otages’ d’arborescences variées et surtout de la ‘noyade’ au sein de documents non structurés. On parle de tous les documents pour lesquels des métadonnées n’ont pas été affectées, comme, par exemple, dans le rapatriement de documents anciens ou de flux de documents externes. La solution permettra le traitement par lots et l’affectation automatique des métadonnées, non détectées ou oubliées lors de l’enregistrement initial.

Bénéfices :

  • découverte des métadonnées ignorées
  • automatisation du traitement
  • qualité de la GID GED
  • performance
  • découverte de documents perdus
  • meilleure gestion des versions de document (exemple, entre différents sites SP (SharePoint))
  • cohérence documentaire entre les différents sites SP
  • amélioration de la recherche des documents
  • intégration optimisée avec les processus d’affaires

 

*Une définition vulgarisée du terme ‘non structuré’ applicable aux documents

Tout document qui ne permet pas son repérage ou celui de son contenu par un système ‘classique’, et pour lequel la solution la plus simple et efficace resterait la recherche par arborescence par exemple, et la lecture par l’Homme. À titre d’exemple, une simple lettre est non structurée, en dehors de la date et la signature. Par opposition un formulaire est un document structuré.

jeudi 5 décembre 2013

Point sur les solutions très novatrices et déjà disponibles pour la gestion des documents et des informations non structurées*.

jeudi 5 décembre 2013, Vitrine Technologique, Québec, QC.

Philippe Goupil aura le plaisir de vous présenter trois solutions face aux sujets brûlants suivants

1.Inventaire et nettoyage des serveurs :

Il s’agit de l’analyse de votre voûte documentaire et de vos serveurs pour offrir l’inventaire très précis des différents documents et fichiers stockés. Le rapport de cette analyse vous permettra de nettoyer vos bases des documents obsolètes, ou multiples. Si votre solution de GID GED offre des rapports, aucun autre système ne sait fournir, aujourd’hui, un audit aussi précis. Cette solution intègre à la fois à votre voûte GED mais aussi les serveurs qui ne sont pas gérés ou accédés par la GED

Bénéfices immédiats :

    • diminution des espaces de stockage
    • tri par type, famille, dates, etc…
    • mise en valeur des documents dans leur bonne version
    • découverte des version multiples
    • découverte des documents et informations ‘perdues’
    • épuration des courriels actuellement archivés
    • augmentation de la qualité de la GID-GED et du système d’information
    • augmentation de la performance
    • coût de traitement fortement réduit
    • la solution à une préoccupation de plus en plus généralisée

2.Traitement automatisé et intelligent des courriels

Il s’agit de traiter tous les courriels entrants et sortants, d’en extraire automatiquement, ce qui est habituellement récupéré par une intervention humaine, pour

    • analyser les courriels en entrée et en sortie
    • générer automatiquement les métadonnées
    • s’intégrer avec la solution de GID-GED
    • analyser des fichiers pst et autres types
    • épurer les zones de stockage des courriels

Bénéfices :

    • Localisation sur les serveurs des courriels contenant des éléments ou informations à valeur légale ou contractuelle
    • Nettoyage des archives de courriel
    • Automatisation du classement (instantané, et à posteriori)
    • Contrôle de la conformité des envois
    • Contrôle de la sécurité en sortie
    • économies de traitement
    • intégration avec les processus d’affaires
    • augmentation de la qualité de la GID GED

3.Share Point : Capture automatique des métadonnées

Il s’agit de rendre l’utilisation de SharePoint plus aisée y compris dans un système de GED tiers. La solution que nous vous montrerons permet de manière simple, d’extraire toutes les métadonnées ‘otages’ d’arborescences variées et surtout de la ‘noyade’ au sein de documents non structurés. On parle de tous les documents pour lesquels des métadonnées n’ont pas été affectées, comme, par exemple, dans le rapatriement de documents anciens ou de flux de documents externes. La solution permettra le traitement par lots et l’affectation automatique des métadonnées, non détectées ou oubliées lors de l’enregistrement initial.

Bénéfices :

    • découverte des métadonnées ignorées
    • automatisation du traitement
    • qualité de la GID GED
    • performance
    • découverte de documents perdus
    • meilleure gestion des versions de document (exemple, entre différents sites Microsoft-SharePoint)
    • cohérence documentaire entre les différents sites SharePoint
    • amélioration de la recherche des documents
    • intégration optimisée avec les processus d’affaires

 

À suivre!

 

* Une définition vulgarisée du terme ‘non structuré’ applicable aux documents:

Tout document qui ne permet pas son repérage ou celui de son contenu par un système ‘classique’, et pour lequel la solution la plus simple et efficace resterait la recherche par arborescence par exemple, et la lecture par l’Homme. À titre d’exemple, une simple lettre est non structurée, en dehors de la date et la signature. Par opposition un formulaire est un document structuré.

11 avril 2013 Présentation

Aparté

Philippe Goupil

Présentation / formation gratuite  du 11 avril 2013 à Québec

Les deux éléments clés de cette présentation ont été:

– Les causes des retards et des échecs actuels 

– Les moyens du succès des futurs projets

En savoir un peu plus:

Enjeux et vision d’une nouvelle génération pour la GED GID ou ECM. Après les premières tentatives et installations plus ou moins fructueuses de solutions de GED (gestion électronique de documents), rarement intégrée…est venu le temps d’un constat de ce qu’offrent les solutions implantées par rapport à ce qu’attendent véritablement les organisations. Quelques soient les appellations, GED  GID ou ECM, ont désormais suffisamment de fonctionnalités pour offrir les bénéfices attendus. Cette présentation offre un regard sur les vrais enjeux, la vision, et les moyens modernes pour réussir le projet dans le cade du futur virage numérique.

Nous en sommes à la troisième génération. 

La première a donné l’accès au traitement informatisé de la Gestion documentaire s’appuyant d’une part sur des technologies lourdes ( gros systèmes) avec une absence totale d’ergonomie, et d’autre part, sur des solutions en réseaux s’appuyant principalement sur Dbase, Access ou Filemaker (Claris). Nous disposions d’un système d’archivage électronique qui ouvrait la porte au chargement de documents numérisés, permettant de gérer soit du papier, soit des documents numériques ou les deux. La gestion des documents héritée de l’ère du papier,  imposait avant tout, la classification et la gestion du cycle de vie du document. La vision de la voûte numérique  était essentiellement celle d’un explorateur type Windows.

La deuxième génération a apporté l’utilisation des métadonnées donnant l’accès à une recherche avancée sur d’autres critères que l’arborescence des dossiers et le titre des documents. Les technologies de type SQL XML dot.net ont permis des progrès considérables de performance, permettant des recherches plus précises dans une masse de plus en plus conséquente de documents.Aujourd’hui, l’accroissement gigantesque du nombre de documents à gérer et surtout à retrouver…, et l’évolution des législations, imposent de nouvelles contraintes et règles. On imagine facilement qu’avec des outils de deuxième génération, si la recherche reste possible, le nombre de résultats devient trop important et la capacité de granularité insuffisante ou trop complexe, face à des volumes devenus colossaux.

La troisième génération de GED GID ECM permet d’accéder à ces nouvelles conditions, et va sans aucun doute, donner le coup d’envoi à ces nombreux projets arrêtés, inachevés ou en attente de lancement. Philippe Goupil nomme  comme solutions de troisième génération celles qui permettent de rechercher un document, non pas uniquement par le même chemin que celui qui a permis son dépôt dans la voûte mais, par un accès complémentaire direct et massif auprès des documents. Ces nouveaux moyens sont entre autres, l’analyse sémantique, et le ediscovery, où les documents sont analysés et indexés selon de nombreux critères dont la complexité et la performance relèvent de technologies matures très avancées. Ces technologies sont aujourd’hui accessibles.

Si le débat chez certains visionnaires existe quant à la complémentarité ou la substitution  des générations deux et trois de la GED, l’histoire et les capacités des nouveaux outils décideront. Aujourd’hui un grand pas est franchi en termes de performances, et les deux générations vont assurément cohabiter de manière complémentaire comme nous le verrons dans cette présentation.

_________________________________________________________________________

Ordre du jour de la journée du 11 avril à la Vitrine technologique de Québec

Matinée:*

 Titre : Projet GED GID: Anciens échecs et nouvelles perspectives

  1. Constat et explication des échecs (30 min). Plusieurs expériences ou tentatives ont mené à des constats d’échec au gouvernement comme dans le privé.
  2. Enjeux et clés de succès du projet GED – GID (1h30)
      • Les vraies cibles
      • Les bons acteurs    

cafe   pause 15 minutes 

      • Les offres disponibles
      • Les clés d’un projet gagnant (30 minutes)
  1. Échanges (30 minutes et plus)

 Après midi:**

Titre : Nouvelle génération pour la GED la GID ou l’ECM

  • Historique de la GED à l’ECM  (30 minutes)
  • Nouveaux contextes nouvelles possibilités  (30 minutes)

cafe   pause 15 minutes

  • Présentation de solutions novatrices de GED GID (liste à venir).  (une heure)

* INSCRIPTION POUR LA MATINÉE  CLIQUER ICI ! 

** INSCRIPTION POUR L’APRES-MIDI  CLIQUER ICI !

Possibilité de dîner sur place à la cafétéria du CSPQ

Publiques concernés:

  • Responsables de la GED
  • Archivistes
  • Informaticiens
  • Responsables des processus
  • Direction général

Prochaine conférence: ‘Le coffre fort numérique’

Philippe Goupil 20130311                                  À propos de Philippe Goupil   

Les projets de GED, au Québec, en panne !


Les projets de GED, au Québec, en panne 

arret urgence

Les projets de GED – ECM subissent actuellement un ralentissement voir un arrêt.

Plusieurs projets gouvernementaux sont ainsi à l’arrêt ou en transition. La politique gouvernementale prudente a effectivement gelé de nombreux projets technologiques dont ceux de GED (GID appellation plus utilisé au gouvernement).

ghjPar ailleurs et sans lien direct avec cette politique, des ministères ont volontairement décidé le gel de leur projet GED. Certains autres ‘patinent’ dans l’attente d’une migration de la solution ou de celle d’Oracle, ou encore d’évolutions connexes, mais aussi par manque de visibilité et de connaissance. 

fjklhk

Dans le secteur privé, on observe des arrêts de projets suite  à un abandon pure et simple de la solution, un gel du projet GED, ou un coup de frein sur les dépenses avec un virage majeur vers une approche plus simple et pragmatique, au périmètre moins large (en utilisant une plate-forme collaborative en place, par exemple…).

Les conséquences sont évidemment :

  • un recul de l’agenda pour des fonctions pourtant indispensables dont la disponibilité est désormais urgente.
  • la renonciation aux fonctionnalités modernes.
  • Sur le plan financier, des conséquences pécuniaires passées mais aussi futures, sont à intégrer.
  • Le plus grave serait qu’un retard majeur soit pris face aux évolutions technologiques offertes désormais au travers du virage numérique pour un meilleur service aux citoyens, et à la clientèle. La mise en conformité vis à vis des lois en place, et à venir serait potentiellement retardée.

Pourquoi cette situation?

Cette situation est explicable et comparable à celle que j’ai personnellement vécu dans d’autres régions géographiques. Elle est la conséquence, d’un processus de modernisation technologique dans un contexte novateur, pour les clients comme les partenaires. Je compare souvent cette réalité à celle des années 90, avec la mise en place des premiers sites WEB.

Détail du cas du WEB:

La situation était la suivante :

  • Que fait on avec?
  • Qui fait quoi?
  • Qui connaît quoi?
  • Quelle est la cible?
  • Combien cela coûte?
  • Où sont les bénéfices?

Solution technologique oblige, les informaticiens ont pris la direction des opérations. Par la suite spécificité multimédia, web design etc., aidant, les infographistes et premiers spécialistes du web ont pris le relais. Enfin, après plusieurs versions du site, plusieurs mois ou années, la cible ayant été bien déterminée, la direction marketing et communications a pris la stratégie et les opérations WEB en main, travaillant en équipe avec les spécialités précédemment nommés…

Le cas de la GED (et de sa ‘dérive’ ECM)

ECRAN1Quelque années plus tard, ‘nous’ répétons les mêmes hésitations avec la GED. Les raisons sont un peu différentes.Par exemple, en Europe, la contrainte était, à l’époque, d’abord financière avec un coût du stockage du papier devenu exorbitant pour des sièges sociaux situés principalement dans les capitales. Les archivistes en charges de la gestion documentaire appréhendaient les premières solutions basées sur des technologies comme Dbase, Access ou Filemaker (Claris). Ils assumaient à la fois leur responsabilité de gardien du patrimoine, et de gestionnaire des documents (plan de classification et cycle de vie). Le document était d’ailleurs le plus souvent une archive. Petit à petit, la numérisation prenait progressivement de l’ampleur et les documents devenaient de plus en plus numériques. Les informaticiens avaient la partie technique de la solution en charge. Parfois ce sont eux qui prenaient la direction du projet GED, et le déploiement consistait principalement à installer la solution. Les utilisateurs étaient encore essentiellement les archivistes.

Par la suite grâce à l’arrivée de nouvelles technologies (SQL, XML, Dot.net),  les éditeurs on offert des fonctionnalités plus avancées comme l’utilisation des worflow, ou des métadonnées par exemple. Le paramétrages est devenus plus aisé (réduction progressive du code à développer). La portée de la GED s’est élargie dans des proportions dépassant les attributions des archivistes, et les informaticiens se sont naturellement positionnés comme chef d’orchestre du projet de GED, puisque les mieux aguerris à la gestion de projets technologiques. En effet à cette époque richesse fonctionnelles rimait surtout, avec richesse technologique.

De cette situation finalement assez nébuleuse, la haute direction ne savait pas décider qui devait avoir la charge de la GED (archivistes, informaticiens, chacune des directions opérationnelles, ou autre), ne sachant pas suffisamment ce que fait la GED dans l’entreprise. Aujourd’hui encore, les différentes directions subissent ou regardent la GED sans savoir vraiment ce qu’elle peut leur apporter. Ni les équipes en charges des processus ni le marketing ne soupçonnent souvent qu’ils seront les premiers bénéficiaires de la performance de la GED.

Pendant ce temps les éditeurs offraient des solutions de plus en plus ‘larges’ et souvent lourdes. Face à des décideurs qui dans le doute ont plus facilement fait confiance à de grosses compagnies pour des produits très chers, souvent sans autres arguments de choix précis que la pérennité de la compagnie et implicitement de la solution offerte… (les grilles de sélection de critères auxquelles la majorité des éditeurs savent répondre positivement, ne permettant pas de valider efficacement une solution parmi d’autres.)

Le pourquoi du pourquoi.

Comme dit précédemment la GED représente des fonctionnalités novatrices et il n’y a pas beaucoup de référentiels ni à des pratiques ni à des solutions dans l’organisation, lorsque le temps d’analyser les besoins arrive. Le niveau de connaissance et de formation est aussi, très limité (y compris chez les partenaires) du fait de la jeunesse du sujet. Si les archivistes dominent le sujet de la gestion documentaire, ils ignorent bien souvent les enjeux des processus ou des technologies connexes (gestion des courriels, signature numérique, métadonnées, capture, Cloud, ediscovery). La numérisation se révèle systématiquement comme un projet à part entière du fait des détails et des spécificités que l’on découvre à l’usage…. Les informaticiens de leur côté ne maîtrisent que peu les enjeux bénéfiques de la GED au delà de la performance apparente de la solution. Les équipes concernées au premier niveau, Processus et Marketing, ne savent pas définir quels besoins fonctionnels seront comblés par quels fonctionnalités de GED et plus largement du virage numérique.

Le déploiement se fait alors avec des résultats décevants :

scvsscIl est souvent constitué d’une installation-implantation technique avec paramétrage des postes clients et un zeste de formation. L’accompagnement au changement souvent mis en avant est mal assumé par des équipes connaissant plus la psychologie que la GED, sa portée et ses bénéfices au niveau de l’organisation et de l’utilisateur lui même. C’est par la suite que l’on découvre que le projet prend une tournure bien plus conséquente qu’initialement prévu. La bouchée trop grosse ne permet plus de respecter l’agenda et le budget, les implications de la gouvernance génère de nombreux sous projets; la GED perd son statut de simple solution d’accompagnement pour la gestion documentaire en devenant enjeu stratégique de la performance, registre qui nécessite une organisation tout autre..

  

Causes et conséquence

  • Faute d’avoir une solution en place, démontrant la performance de la GED.
  • Faute d’avoir des bénéfices suffisants à mettre en face des investissements parfois démesurés (dizaines de millions de dollars engloutis…)
  • Faute d’avoir une vision globale et stratégique du virage numérique dans lequel doit s’inscrire le projet de GED
  • Faute d’avoir suffisamment de connaissances en interne
  • Ayant démarré le projet la tête ‘la première’ par exemple, avec une numérisation massive
  • Ayant trop fait confiance au catalogue de l’éditeur
  • Ayant  pris le projet trop large dès le commencement

                                    La sagesse amène à un principe de précaution, le moratoire.

Conseils:

Il n’est pas possible de nier l’importance de la GED pour répondre notamment aux besoins de performances et de légalité. Si le projet est ‘sur la glace’, il devra donc être repris. Il convient donc de ne pas laisser au seul temps la faculté de repartir mieux la prochaine fois. Dans mes expériences, j’ai d’ailleurs, pu constater parfois une deuxième chute…

Les informations que je communiquerai dans mon prochain document, vous fournirons quelques clés de succès dans une approche pragmatique et performante. La priorité sera donnée à la recherche des bénéfices, dans un contexte de performance. La vision devra être proactive plutôt que réactive. La GED apportera ainsi sa contribution à la modernité des processus d’affaires intégrés aux réalités du virage numérique, sans devenir un système pieuvre et finalement inefficace.

Sans titre 3Il est impératif de continuer ou de mettre en œuvre une réflexion intégrée concernant ce virage numérique qui nécessite une trajectoire adaptée et un ajustement de la vitesse. L’arrêt, s’il apparaît sécuritaire comporte des risques préjudiciables à la finalité du projet. Le choix des contributeurs se révélera essentiel. Enfin le projet de GED ne pouvant être isolé, doit être intégré aux enjeux stratégiques et opérationnels.

20130214 Philippe Goupil   

Can  418 717 0359
US    949 208 1867
 

Projet GED et choix

20120907 recherche profile metadonnées

À la question quelles sont les solutions de GED disponibles sur le marché je réponds couramment qu’il en existe environ deux-cents ‘visibles’ et dignes d’intérêt sur le marché international dont plus d’une vingtaine au Canada.

Mais la question n’est pas de connaître la liste trop considérable de solutions variées disponibles.

En voici les raisons:

  • Le succès d’un projet de GED est rarement attribuable à son éditeur.
  • Le client et plus précisément l’équipe en charge de la GED est responsable au premier chef du succès ou de l’échec.

Contexte québécois 

Il est important de préciser quel est le contexte de la GED au Québec.

  •  Il y a beaucoup plus de constats d’échec, au Québec, en matière de GED, que de succès.
  • Il est quasiment impossible aujourd’hui de trouver une organisation pour laquelle la GED est déployée avec succès à la grandeur de l’organisation.
  • Le gouvernement du Québec à adopté l’appellation GID pour ‘gestion intégrée des documents’, alors qu’on peut déplorer qu’il ne dispose que de solutions souvent peu évoluées et rarement modernes. Ces solutions ressemblent plus à des SAE (Systèmes d’archivage électronique) qu’à des solution de GED. Le terme de GID est finalement assez prétentieux en regard de la performance offerte aux utilisateurs.
  • Un certain nombre de solutions sont disponibles et implantées au Québec, en provenance des États Unis, du Canada et de l’Europe, ou encore de la communauté internationale open source. Environs cinq éditeurs Québécois offrent des solutions. Il y a donc assez de choix !

 La bonne question

La bonne question pour déployer la bonne solution est de savoir pourquoi nous souhaitons utiliser une GED, et comment nous allons l’utiliser. Je ne dis pas nécessairement la meilleure solution, car cet exercice est probablement impossible. Comme déjà dit, la part de responsabilité de l’éditeur n’est pas majoritaire dans le succès d’un projet de GED,

La recherche de bénéfices est le meilleur argument et la cible principale.

La conformité et la légalité ne constituent que des composantes de la motivation, du choix et du déploiement.

Les bénéfices principaux se mesure en termes de productivité, ce qui comprend les économies d’espaces, de temps perdu, de déplacements, habituellement cités, mais s’appuie principalement sur une optimisation des processus. Au gouvernement on parle de compenser les départs à la retraite et mieux servir les citoyens. En entreprises on parle de réductions de coûts et d’accroissement de la rentabilité et des profits.

Pour choisir une solution il va donc falloir rechercher les points ou une solution de GED va permettre ces bénéfices dans un contexte technologique et culturel existant.

Les solutions de GED pré-retenues doivent répondre à des fonctionnalités de base de la GED permettant le dépôt et la recherche des documents dans un contexte de gestion optimum s’appuyant notamment sur les principes de gestion documentaire et d’archivage d’une part et d’amélioration des processus documentaires (Workflow).

L’erreur encore fréquente est de vouloir établir une liste exhaustive de critères de choix. Avec quelques spécialistes de la profession, nous nous accordons à supprimer ce genre de liste pour la raison suivante: Nous arrivons à un nombre dépassant les mille questions pour essayer de discriminer un produit parmi plusieurs dix ou vingt. L’exercice devient rapidement impossible voir stupide. En effet, il n’existe aucune solution capable de répondre positivement à la totalité des questions. Même si on applique des variantes rendant certains critères obligatoires et d’autres, optionnels l’exercice restera impossible. Par ailleurs si la question est de savoir si une solution répond à un critère, l’important est surtout de savoir comment. (exemple: la solution dit être interfacée avec SharePoint (Microsoft); oui mais comment en fonction de chacun des différents aspects de la relation)

Le conseil que je donne est donc encore une fois, de partir des points ou les bénéfices seront les plus tangibles pour définir la meilleure utilisation de la GED et non pas de la soit disant meilleure solution du marché qui pourrait être présentée dans un célèbre tableau carré…

À titre d’exemple, des éditeurs prestigieux peuvent avoir des références calamiteuses du fait d’une mauvaise utilisation de leur solution. À l’inverse des solutions modestes vont être capables de répondre à des besoins bien déterminés.

Investir dix ou quarante millions dans un projet de GED n’est absolument pas un critère de succès.

Image3 

La GED n’est pas chose compliquée, c’est ce que nous en faisons qui le devient!

Enfin, je constate que dans sa phase de pré-projet, la GED est parfois estimée jusqu’à dix fois moins de ce qu’elle coûtera, pour des performances potentielles sous estimées. La portée et les bénéfices à en attendre étant méconnus, la cible est, par voie de conséquence, mal définie.

Urgence !

Il est urgent de déployer la GED partout, mais avec calme, par étapes, et en commençant par des choses simples. La numérisation n’étant pas forcément le meilleur point de départ…

20121212 Philippe Goupil

La dématérialisation des documents analogiques

Sans titre 3La Gestion Électronique de Documents passe par la dématérialisation des documents analogiques

IMG_0259Le développement de la Gestion Électronique de Documents (GED) est une nécessité. Cette obligation doit amener des gains de productivité spectaculaires, dans un contexte qualitatif amélioré.

Les outils dont nous disposons permettent à nos systèmes d’utiliser des prnumeriseurocessus de mieux en mieux décrits et donc de plus en plus efficaces. Si les données circulent de manière fluide et si le processus se déroule efficacement entre les applications et les utilisateurs, le document reste, quant à lui, trop souvent un point de blocage sinon de ralentissement, car il n’est pas toujours rendu disponible en ligne dans sa version électronique. Pour alimenter le processus en question, il est souvent nécessaire de procéder par une étape faisant appel à une manipulation physique du document, comme principalement, une photocopie, une signature manuscrite, une télécopie ou un envoi postal. La numérisation des documents constitue ainsi, souvent, la première étape ou au moins la première motivation d’un projet d’implantation d’une GED.

La dématérialisation, est le nom donné au processus permettant, au-delà de la simple numérisation, d’indexer et de rendre les documents devenus numériques, accessibles par les systèmes informatiques. Ceux-ci pourront avoir accès au contenu du document; dans ce cas, on parle de la capture des données. La dématérialisation comble ce qu’on pourrait appeler le chaînon manquant de la chaîne numérique que représente un document analogique et papier essentiellement.

En quoi consiste précisément la dématérialisation?

En temps que support d’information le document dès sa création est diffusé consulté, annoté, et conservé pour acheminer une information et des données. Les utilisateurs, individus ou systèmes, doivent y avoir accès en tout temps selon leurs droits (interne/profil, externe/diffusion ou partenariat). L’image du document permet une consultation ‘’visuelle’’ pour information ou preuve légale par exemple. L’utilisation des données recueillies, permet, quant à elle d’alimenter un processus d’affaires (ex: traitement automatisé d’un bon de commande papier, par un système informatisé). Le papier représente des coûts au delà de sa production. Impression de l’information, mise sous plis, affranchissement, acheminement, ouverture des enveloppes, distribution, photocopie, stockage, déstockage, etc.. La dématérialisation permet ainsi de supprimer le support papier au profit de sa version numérique. Ce processus reste valable aussi longtemps que la source de certains documents restera papier.

APUI2124Les enjeux de la dématérialisation.

L’ensemble des documents officiels circulant pour les relations entre les citoyens et les administrations est disponible en grande majorité en format papier. Il en est de même, probablement dans une proportion moindre pour ce qui concerne les échanges inter-entreprises pour lesquels les contraintes légales et officielles sont souvent moins lourdes, alors que le besoin en termes de performances et rentabilité prime. C’est internet qui a permis d’accentuer le développement de cette communication.
Lois, décrets, ou normes; de nombreux textes encadrent déjà ces échanges sur le plan juridique, réglementaire et normatif. Au gouvernement, la dématérialisation pourrait se développer de façon prioritaire au niveau des relations avec les fournisseurs, comme dans le cas des appels d’offres, des devis, et de la facturation. Au niveau des entreprises la croissance de la dématérialisation va se faire progressivement et point à point, comme dans les échanges administratifs et certains travaux collaboratifs. Certains organismes en relations avec les entreprises offre déjà des documents en version électronique. Nos fournisseurs habituels privilégient de plus en plus les versions électroniques des documents mis à disposition tels que les factures de téléphone ou les relevés de compte.  A ce propos, nous constatons déjà au niveau individuel et privé, les changements que cela impose dans la gestion de nos affaires. Il est ainsi aisé de comprendre que le virage électronique dans l’entreprise ou le gouvernement impose une organisation nouvelle des processus et un important accompagnement au changement. Ces changements liés à des fonctions et des principes nouveaux nécessitent des compétences nouvelles, le temps du changement mais aussi de nouvelles compétences pour la gestion de nouvelles activités.

Les enjeux technologiques trouvent aujourd’hui des réponses aux différents cas d’espèces.

Ce sont les enjeux ‘’ ‘politiques’’ et ‘’stratégiques’’ qui devront être abordés avec une grande attention. Attention pour une acceptation par les usagers (internes ou externes), attention pour une vision globale de la GED dans le système d’information mais aussi de la vision d’entreprise ou de la mission de l’organisation.

Un accompagnement à forte valeur ajoutée est indispensable pour la réussite du projet de GED. La dématérialisation est implicitement un point majeur de cette évolution.

ECRAN1Les bénéfices à attendre:

La profession s’accorde sur le fait que l’usage de la dématérialisation des documents et de leurs échanges apporte un retour sur investissement en moins d’une année. En effet, la mise à disposition de la version numérique des documents permet de:

  •       Rationaliser et faciliter l’accès aux informations en améliorant la productivité.
  •       Réduire considérablement la dispersion des documents et de l’information
  •       Améliorer la performance et les conditions de travail des utilisateurs finaux
  •       Diminuer la consommation d’espace
  •       Diminuer la consommation d’énergie en réduisant les transports des documents    les photocopies multiples et l’entretien des espaces de stockage.