Quel contrôleur de gestion n’a jamais vécu le cauchemar de données douteuses, incomplètes, redondantes, ou peu pertinentes, pour ne citer que quelques exemples ? Quel DAF peut affirmer n’avoir jamais jonglé avec des informations basées sur de la data problématique, malgré tous les efforts de nettoyage des équipes ? Voilà des situations qui peuvent mettre en péril l’efficacité du travail, mais encore plus la performance de l’entreprise. Alors, à quoi correspond la notion de qualité des données ? Quelles sont les caractéristiques incontournables que la data doit présenter ? Nous avons recensé 10 critères essentiels.
Préambule : la qualité des données, un enjeu fondamental dans les directions financières
Aucun dirigeant d’entreprise ne peut s’exonérer d’une gestion des données sérieuse et structurée. La data constitue même un sujet stratégique, vu son exploitation magistrale qu’il est possible de mettre en place.
La data, le matériau brut que les contrôleurs de gestion doivent exploiter pour remplir leurs missions
Pas de data, pas de chocolat… Vous connaissez vos classiques ! C’est tellement vrai. Tout comme le bûcheron exploite les arbres, le contrôleur de gestion se nourrit des données pour ses analyses prescriptives, prédictives comme descriptives. Ainsi, s’il façonne ses études et rapports sur une information de mauvaise qualité, c’est compliqué.
Deux voies existent pour contourner ce problème :
- Cruncher la data afin de fiabiliser les données, quitte à y perdre beaucoup d’énergie, tout en y trouvant peu d’intérêt. En outre, le financier manque souvent d’outils rationnels pour ce travail ingrat.
- Structurer le data management de l’entreprise, en amont de la collecte, ce qui suppose de mettre en place processus et outils.
Les conséquences d’une data quality insuffisante pour la performance de l’entreprise
Une telle situation de données de mauvaise qualité est lourde d’impact. En cas d’insuffisances détectées trop tard, les reportings et indicateurs clés émis peuvent comporter ou manquer de pertinence. Les dirigeants prennent des décisions sur la base de ces documents, avec des conséquences potentiellement gênantes, voire graves. Ce type de phénomène contribue à décrédibiliser les équipes financières. Par ricochet, le manque de confiance s’installe entre la gestion et son client, le lecteur du rapport. Les différents services peuvent même finir par ne plus lire les reportings émis par la DAF.
Les impacts de données de faible qualité sur les équipes de gestion
Les collaborateurs de la direction financière souffrent des perceptions externes de cette mauvaise qualité de données. En outre, l’énergie perdue dans des pratiques de cadrage, nettoyage, pointage, transcodage, etc. des fichiers et informations impacte le moral des troupes.
Peu de contrôleurs de gestion aiment ces tâches. La plupart n’ont pas choisi ce métier pour passer des heures à trouver des solutions à ce type de problèmes. C’est encore pire, s’ils vivent dans le même temps l’Excel Hell et les limites du tableur ! Voilà des situations qui ajoutent en permanence de la charge mentale aux équipes financières.
Pertinence et fraîcheur de la data par rapport aux besoins de l’entreprise
La qualité des enregistrements récupérés par la Business Intelligence dans toutes les sources de données dépend d’abord de leur pertinence. C’est un des critères essentiels pour les opérationnels. Sans analyse approfondie du besoin de chaque service ou activité, c’est difficile de garantir cette adéquation.
Nous rangeons dans la même catégorie la notion de timeless ou de fraîcheur. Si l’acquisition de la data demande tellement de temps, elle risque d’arriver trop tard pour les utilisateurs finaux. Elle perd tout son intérêt et donc sa pertinence. Ainsi, une stratégie de data qui consisterait à mettre en œuvre une collecte de toutes les informations, quitte à ralentir le processus, nous semble contre-productive.
Exhaustivité ou complétude des données
Évidemment, des enregistrements incomplets posent problème au contrôleur de gestion. Par définition, son métier consiste à réaliser chaque analyse à partir de données exhaustives. Ce n’est pas un statisticien. En outre, chaque donnée doit être complète. Par exemple, dans un référentiel des clients, le champ “agent” ou “commercial” doit être renseigné. S’il reste vide, cela n’empêche pas forcément de prendre des commandes, livrer et facturer l’entreprise cliente. Toutefois, pour la Business Intelligence, réaliser une analyse des ventes par commercial sur une période, une zone, une gamme de produits, etc. peut s’avérer hasardeux avec ce champ parfois vide.
Cohérence et uniformisation des données
Ce point met en évidence l’importance de la création et de la maintenance des référentiels, au regard de la qualité des données.
Les référentiels articles (produits et matières premières) comme les référentiels tiers (clients, fournisseurs et salariés) exigent de définir des règles pour leur conception et leur codification. Une donnée cohérente signifie que les enregistrements réalisés sont en conformité avec les règles fixées dans l’entreprise.
Voici quelques exemples :
- Un champ supposé contenir seulement une date ne doit pas comporter d’enregistrements au format texte.
- Pour un fichier des articles produits par l’entreprise, la bonne stratégie consiste à automatiser la détection de problèmes comme des montants anormaux. Par exemple, c’est courant de paramétrer des valeurs minimales et maximales pour des prix de vente ou pour des prix de revient.
Les référentiels et tables spécifiques à chaque entité d’un même groupe constituent un autre cas d’uniformisation indispensable de la data. Quand les données doivent se consolider, la bonne stratégie consiste à réaliser un travail d’uniformisation en amont. Ceci suppose donc de définir dans les systèmes des règles de transcodage automatiques rigoureuses et exhaustives. C’est la garantie de données uniformes, prêtes pour l’étape de consolidation.
Exactitude et précision des données, un critère de data quality
Une donnée exacte suppose de la précision. Elle doit être valide à l’instant T pour ses utilisateurs. Appelé aussi validity en anglais, ce critère de qualité pour des données signifie que chaque champ respecte bien une règle, une norme ou un modèle.
La mise en œuvre d’une telle normalisation évite le manque de précision des enregistrements. Dans le cas contraire, les problèmes ou erreurs conduisent à une information qui manque de fiabilité. Elle peut même s’avérer partiellement inexploitable. Par exemple, les emails des fournisseurs ou des clients ne doivent pas revenir avec un motif invalide lors d’envois de messages massifs (par exemple, lors de campagnes marketing dans les entreprises).
Conformité des données à la réglementation ou à une règle propre à l’entreprise
Ce critère d’analyse qualité permet de vérifier le respect d’une loi, d’un règlement, d’une norme, interne ou externe à la société. Sont concernés les processus de collecte des données, de stockage, d’utilisation et de diffusion. La fiscalité impose ainsi de se conformer à des règles précises afin d’établir les factures à partir du fichier client et du fichier article.
Il en va de même pour le règlement général sur la protection des données (RGPD). Ainsi, la CNIL spécifie que l’entreprise doit faire “le tri dans ses données”. Ce processus vise notamment à s’assurer que les informations récupérées sont “pertinentes et nécessaires à l’objectif poursuivi”. La mise en place de contrôles de conformité sert à identifier les données inexactes.
Unicité de la donnée, donc absence de doublons
Tout comme l’exhaustivité fait partie de la qualité incontournable pour la data, l’unicité compte également. Les outils et systèmes qui aident à vérifier ce critère sont essentiels. Les règles fixées lors de la création des informations à la source évitent de devoir traquer ensuite les doublons.
C’est indispensable de s’assurer de ce point lors de l’intégration automatique des factures en comptabilité. Le contrôle de la référence d’origine portée par le fournisseur sur la pièce apporte une solution au problème. Il permet de garantir l’unicité de saisie. Toutes les entreprises ont intérêt à mettre en place ce type de vérification pour fiabiliser la data le plus tôt possible dans le processus.
Un autre exemple qui pose parfois problème en matière d’unicité, c’est le référentiel des clients. La mise en place de champs discriminants, comme le téléphone, le SIRET, etc. permet de ne pas démultiplier des clients identiques dans la base d’information.
Clarté et compréhensibilité des données pour les utilisateurs
Des données dont les utilisateurs finaux ne saisissent pas le sens ne répondent pas aux exigences de qualité. Chaque univers de données doit disposer d’une documentation explicite des champs, attributs, dimensions, objets, etc. L’existence de glossaires ou de dictionnaires pour toutes les sources de données aide à s’y retrouver rapidement et sûrement. Une data de bonne qualité évite les interprétations ou les renommages hasardeux dans le système informatique.
Sécurité, intégrité, fiabilité et traçabilité des données
Les informations sont idéalement exactes, disponibles et pertinentes à l’instant T. Mais, si les systèmes informatiques ne peuvent pas garantir leur intégrité permanente, là encore, la qualité n’est pas au rendez-vous. Cette caractéristique doit exister pendant tout le cycle de vie de la donnée. Ce point est fondamental en matière de gestion de la data. C’est l’assurance, tant lors de la collecte, du traitement que du stockage de disposer de données cohérentes, fiables, précises et vérifiables.
En outre, le fait de pouvoir tracer les données sécurise aussi les utilisateurs. Ils peuvent remonter aux sources, même si plusieurs étapes de traitement ou de transformation sont intervenues entre temps. Le souci classique consiste justement à ne pas savoir d’où vient la data exactement. Or, c’est la seule manière de pouvoir apporter une solution à un problème récurrent qui survient dans un entrepôt de données.
Disponibilité et accessibilité de la data
L’accès aux données c’est d’abord la capacité des outils comme la BI à attaquer des sources d’information aisément, et sans dégrader les performances. En fonction de la volumétrie, des choix s’opèrent au niveau de l’accessibilité : mode batch, requête à la demande ou extraction lors des mises à jour.
Sans accès rapide, permanent et simple aux données, les utilisateurs risquent de vite abandonner les sources d’information. Ne sous-estimez pas ces critères de qualité. Dans une solution de Business Intelligence, le temps de traitement ne doit pas décourager de lancer une requête en milieu de journée.
Absence de processus de gestion des données (data management)
Enfin, nous avons gardé pour la fin, un point crucial : le data quality management (DQM). Ce pilotage des données doit répondre aux enjeux de la qualité. Si on s’en réfère à la définition ISO, la qualité correspond à “l’aptitude d’un ensemble de caractéristiques intrinsèques à satisfaire des exigences”. Un processus de gestion des données efficace doit donc organiser les systèmes d’information afin que chaque critère qualité détaillé précédemment dans l’article soit garanti.
Parmi les grands axes à prévoir pour une telle gouvernance des données, citons :
- Rationaliser la collecte des informations grâce à des outils comme IBM Analytics qui simplifie le processus d’import.
- Centraliser et stocker les données de façon structurée, avec des nomenclatures strictes, compréhensibles et qui respectent des normes.
- Identifier les anomalies et erreurs, afin de les corriger le plus possible en amont, mais aussi mettre en place des automatismes de nettoyage le cas échéant.
- Développer une sensibilité dans l’entreprise sur l’importance des données, soit un mode de fonctionnement data-driven.
- Organiser un contrôle périodique des données afin de détecter les erreurs et parer à chaque problème à la source.
Soigner la qualité des données, un préalable pour soulager les équipes de gestion
Cette démarche de gestion de la qualité des données participe à un bon management des équipes. La mise en œuvre d’une organisation stricte sur le plan des méthodes comme des outils, soulage les contrôleurs de gestion dans les entreprises. Le data crunching diminue. Les corrections directes des informations dans le reporting disparaissent. La confiance dans la donnée financière ainsi que dans les systèmes d’information se restaure. Pour échanger sur de tels dispositifs, prenez contact avec un expert BI de chez INTIS.