Comment et pourquoi réduire le data crunching pour le contrôleur de gestion ?

Publié le mardi 4 février 2025.

data crunching

Ce terme de data crunching fait partie du vocabulaire des contrôleurs de gestion, souvent malgré eux. Tout le temps passé à cruncher (croquer) la data, c’est autant d’heures qui manquent pour mieux croquer la vie ! Pourtant l’exploration et l’analyse des données font partie des tâches incontournables avant de pouvoir exploiter les informations de façon pertinente ensuite. Alors, comment s’y prendre pour transformer ou automatiser le data crunching et améliorer le quotidien des équipes ? C’est tout l’objet de cet article.

Data crunching, un mal pourtant nécessaire

Ce processus bien connu des contrôleurs de gestion vise à préparer les données, souvent en grande quantité, en vue de leur exploitation. Mais, pourquoi le data crunching est-il si incontournable ? Pourquoi prend-il autant de temps dans la plupart des sociétés en France ?

Le verbe to crunch signifie littéralement “croquer” en français. Le crunching peut se traduire par le traitement, l’analyse ou l’exploration si on l’associe au terme “données” ou “data”. Il se rencontre surtout lorsqu’on évoque le big data, soit les grands ensembles de données. En effet, une forte volumétrie d’informations, parfois d’origines et de formats variés, exige de la structuration et du nettoyage afin de pouvoir les gérer et les interpréter correctement.

data crunching

Ainsi un processus de data crunching, manuel ou automatisé, consiste notamment à :

  • structurer les données non structurées ;
  • détecter les erreurs ou anomalies ;
  • supprimer des caractères ou du balisage afin de convertir toutes les données dans un format unique.

L’avènement du big data (ou mégadonnées) depuis quelques années vient alourdir encore le travail de data crunching. La volumétrie des données que produit une entreprise explose. S’y ajoutent désormais de nouvelles sources d’information, internes, voire externes, plus fines, complexes et stratégiques.

Tant pour les prévisions de vente que pour l’analyse du comportement des consommateurs par exemple, les entreprises explorent et entrecroisent des bases de données de plus en plus gigantesques. Non seulement ces jeux de mégadonnées sont de dimension énorme, mais leur composition mixte, structurée et non structurée, accroît la complexité de leur analyse. Le travail de data crunching ne peut qu’augmenter face à cette évolution de la data.

L’analyse des données, ce n’est pas que dans les livres. Les opérations consistant à cruncher la data interviennent désormais dans plusieurs services de l’entreprise, dont plus particulièrement le marketing et la finance. Elles conduisent à un contrôle, un nettoyage et une préparation des données, en vue de leur exploitation optimale.

C’est donc une source de gain de temps pour les personnes qui réalisent des analyses. Elles ont l’assurance de bâtir leurs études sur de la data propre, débarrassée des données inutiles, erronées ou non structurées. C’est donc une tâche qui accroît ensuite l’efficacité opérationnelle. C’est un mal nécessaire. Mais, il convient de l’organiser pour éviter de démotiver les équipes qui en ont la charge. Les technologies et les sciences ont bien évolué sur ce point et nous sommes en droit d’en attendre de la simplification.

L’analyse des données prend trop de place dans le quotidien des financiers

Pour un contrôleur de gestion, le temps passé à cruncher la data c’est un peu comme le concept de l’iceberg. Il y a ce qu’il fait tout au long de la journée, et il y a ce qui se voit. C’est souvent compliqué d’expliquer aux décideurs et demandeurs pourquoi la préparation des informations prend tellement de temps, quel que soit le business.

C’est inutile de leur détailler que la construction d’un reporting exige d’abord des tables de transcodage, le contrôle des transactions, articles ou produits, pour les ventes, les achats ou les stocks. C’est de la technique qui ne les intéresse pas.

Les clients des services financiers, qu’il s’agisse de la direction ou des managers fonctionnels ou opérationnels de l’entreprise, se préoccupent peu de savoir comment le tableau de bord ou les indicateurs clés sont préparés et calculés. Cela reste la cuisine du contrôle de gestion. En revanche, si les chiffres communiqués manquent de fiabilité ou de sérieux, tous ces responsables sauront en accuser les financiers. C’est pourquoi le gestionnaire passe tant de temps à vérifier et à fiabiliser ses sources d’information avant d’émettre le moindre reporting.

Quand les minimums requis manquent, souvent bien en amont même de l’informatique, la situation est encore plus intenable. Les contrôleurs de gestion peuvent passer l’essentiel de leurs journées à pointer et valider des articles, des tiers, etc. Pourtant, c’est aussi de leur responsabilité de sensibiliser et d’aider à cadrer les procédures, en commençant par les référentiels. La qualité des données internes à l’entreprise dépend en grande partie de ces process et contrôles, bien en amont de la collecte de la data.

Ce sont les règles de gestion des articles et des tiers qui conditionnent souvent en grande partie la fiabilité de la data. En effet, si les workflows sont suffisamment sécurisés, car le contrôle interne a fait son travail, la fiabilité des données créées dans un ERP s’accroît.

Comme l’écrivait DafMAG.fr en juin 2021 dans son article “vous avez dit transformation du contrôle de gestion”, ces financiers sont “en bout de chaîne. (…). S’adapter peut impliquer une surcharge de travail lorsque la production du reporting nécessite un retraitement manuel des données comptables, du fait de l’inadéquation de la structuration des données avec les enjeux de pilotage”.

En l’absence d’outils pour faciliter le data crunching ou de données nativement formatées correctement, les équipes financières souffrent. Il leur reste peu, voire pas de temps, pour effectuer ce à quoi elles aspirent vraiment :

  • analyser les chiffres et les commenter ;
  • identifier les points et facteurs d’amélioration ou de dégradation ;
  • émettre des recommandations ;
  • accompagner les dirigeants dans leurs prises de décision et dans des analyses proactives de l’activité ;
  • donc, participer au pilotage effectif de la performance.

Le data crunching est une tâche répétitive et peu intéressante en soi, mais fondamentale pour pouvoir ensuite analyser les données de toute société. Le mieux est de pouvoir l’automatiser au maximum. Ainsi, vous libérez les gestionnaires de cette étape peu valorisante et consommatrice d’énergie.

Les financiers qui ont goûté à d’autres outils collaboratifs que la bureautique connaissent les limites d’Excel. Ils ont parfois vécu le cauchemar que constitue la création de bases de données sur tableur. Ils savent que les solutions du type EPM ou BI peuvent les aider à structurer le data crunching, voire à l’automatiser en grande partie.

Les solutions EPM pour un traitement automatisé du data crunching en finance

Les responsables ou les DAF qui persistent à adopter l’attitude de l’autruche, la tête dans le sable, risquent de souffrir d’un turnover plus important. Alors que les outils et les technologies ne cessent d’évoluer, avec notamment l’avènement de l’IA, ce serait dommage de s’entêter à traiter et nettoyer manuellement la data. C’est la responsabilité de ces managers d’insérer dans leur stratégie data un volet pratique, avec l’emploi d’outils pour automatiser le data crunching.

Un EPM est un système informatique qui prend en charge la gestion des performances de l’entreprise. Ce type de logiciel comporte plusieurs volets très utiles aux contrôleurs de gestion :

  • analyse des données et de la performance, tant descriptives (passé) que prédictives et prescriptives (futur) ;
  • processus budgétaire et de planification ; 
  • consolidation.

IBM Planning Analytics with Watson est une des deux technologies que nous avons choisies chez Intis, en tant qu’intégrateur d’EPM dans les ETI et PME.

Ce type de logiciel apporte du confort aux équipes :

  • gestion d’une forte volumétrie de données, grâce à une capacité de mémoire importante et un moteur de calcul puissant ;
  • aide sensible à la compilation et à la consolidation ;
  • centralisation de toutes les informations dans un espace de travail partagé (Workspace), ce qui améliore l’aspect collaboratif du logiciel ;
  • intelligence artificielle et outils d’automatisation, notamment pour le traitement des données appelé data crunching.

Watson est le supercalculateur d’IBM depuis plus d’une décennie. C’est aussi un module qui exploite l’intelligence artificielle et le langage naturel pour formuler ses questions. Watson permet d’automatiser le formatage des données dès leur chargement sur la plateforme d’IBM.

Puis, l’IA générative et l’EPM s’allient chez IBM. Ainsi, en 2023, IBM apporte une nouvelle brique avec la plateforme IA appelée watsonx. Elle propose plusieurs produits d’intelligence artificielle pour accroître l’impact de l’IA générative dans les workflows.

Avec de tels outils, les contrôleurs de gestion peuvent par exemple automatiser des processus métiers et des contrôles sur la data collectée. Pour citer IBM, avec watsonx “faites confiance à vos données et à vos décisions. Gérez, préparez et intégrez des données fiables à partir de n’importe où et dans n’importe quel format”.

L’EPM, une solution intelligente qui remplace judicieusement les outils Excel de Microsoft en entreprise

Les évolutions technologiques ne cessent de rendre la tâche des contrôleurs de gestion plus fluide, intéressante et confortable. Rester dans un fonctionnement classique où cruncher la data prend un temps fou, c’est franchement dommage. C’est se priver surtout des ressources bien utiles ailleurs pour optimiser enfin la performance des entreprises.

Renversez la table. Inversez le temps passé par vos équipes à contrôler et fiabiliser les données, par rapport à celui consacré au business partnering. Adoptez les bons outils, comme l’EPM d’IBM, Analytics with Watson. Ils automatisent les contrôles et le data crunching pour le maximum de confort des utilisateurs. Intis se propose de vous expliquer lors d’une démo personnalisée comment cet EPM fait progresser les équipes de la finance.