La plupart des équipes procurement savent que leurs données ne sont pas parfaites. Ce qu'elles sous-estiment constamment, c'est le coût de cette imperfection – non pas comme une inefficacité abstraite, mais comme un frein direct à la marge.
Les chiffres sont sans appel. La recherche montre constamment que les entreprises avec une mauvaise data quality procurement laissent entre 1 % et 3 % de leur spend total sur la table chaque année. Sur un budget procurement de 50 M€, cela représente jusqu'à 1,5 M€ de coûts évitables. Non pas parce que les contract sont mauvais. Non pas parce que les suppliers facturent trop cher. Mais parce que sans données propres, catégorisées et cohérentes, vous ne pouvez tout simplement pas voir où se situe le problème.
The problem is not the data. It is what you cannot do with it.
La plupart des leaders procurement avec qui nous parlons ont des données – beaucoup. Exports ERP, historiques d'invoice, bases de données supplier et feuilles de calcul maintenues par des personnes qui connaissent intimement leurs jeux de données. Le problème n'est pas le volume. C'est la structure.
Lorsque les données de spend ne sont pas catégorisées de manière cohérente, un ensemble prévisible de problèmes apparaît :
- Le même produit apparaît sous cinq descriptions différentes dans trois unités commerciales
- Le même supplier est enregistré sous quatre noms différents, de sorte que le spend total est invisible
- Le reporting de catégorie prend des semaines à produire et est toujours remis en question lors des réunions de conseil d'administration
- Les outils d'analytics et d'AI sont implémentés sur des inputs désordonnés et produisent des outputs peu fiables
- Le procurement ne peut pas construire un argumentaire crédible pour la renégociation de contract car les données de volume ne tiennent pas la route
Where the cost hides: three real patterns
Modèle 1 : Volume supplier invisible. Une grande entreprise d'infrastructure a réalisé un baseline de data quality et a découvert qu'un supplier qu'elle pensait recevoir 300 K€ de spend annuel recevait en fait plus de 1,2 M€ – répartis sur différentes descriptions d'invoice, différentes unités commerciales et différents codes de coût qui n'avaient jamais été agrégés. Cette information a immédiatement conduit à une renégociation. L'économie réalisée la première année a couvert le coût du travail sur les données de nombreuses fois.
Modèle 2 : Spend de catégorie sur lequel vous ne pouvez pas agir. Une entreprise de facilities management voulait construire une stratégie de catégorie pour la maintenance HVAC sur l'ensemble de son portefeuille. Lorsqu'ils ont extrait les données, le même type de filtre est apparu comme "HVAC filter 400mm", "air filter F7", "filter panel medium" et "PPE consumables – ventilation" selon la personne qui avait saisi l'invoice. Il s'agissait du même produit, acheté auprès de différents suppliers à des prix différents, sans possibilité de comparer ou de consolider.
Modèle 3 : Prix de tender basé sur des suppositions. Une entreprise de construction qui fixait le prix d'un nouveau contract de facilities disposait de données de spend historiques sur des dizaines de projets achevés – mais aucune n'était catégorisée de manière cohérente. Les estimateurs devaient se fier à leur mémoire et à leur jugement plutôt qu'à l'extraction des données réelles par type d'asset et catégorie de service. Le résultat : des marges gonflées pour couvrir l'incertitude.
What good procurement data actually enables
Lorsque les données procurement sont structurées, enrichies et catégorisées de manière cohérente – généralement à l'aide d'un standard comme UNSPSC – la situation change rapidement.
- Consolidation supplier avec un réel levier. Vous pouvez voir le spend total par supplier sur toutes les variantes de leur nom. Ce chiffre devient une position de négociation.
- Véritable category management. Le spend regroupé en catégories cohérentes peut être analysé, benchmarké et géré par rapport aux taux du marché.
- Prix de tender plus rapide et plus précis. Lorsque les données de coût sont classifiées et liées aux types d'asset, fixer le prix d'un nouveau tender signifie récupérer les données réelles plutôt que de construire des estimations.
- Analytics et AI qui fonctionnent comme annoncé. Des inputs propres produisent des outputs fiables. Des inputs désordonnés produisent un bruit coûteux.
"Pour la première fois, nous pouvions faire confiance à nos rapports de spend. J'ai utilisé les outputs pour construire notre premier rapport de strategic sourcing qui a réellement résisté à l'examen du CFO."
– Responsable Procurement, entreprise d'infrastructure européenne
The process: how data quality work actually happens
La méprise la plus courante est que l'amélioration de la data quality procurement nécessite une migration ERP complète ou un programme de transformation pluriannuel. Ce n'est pas le cas.
Étape 1 – Baseline. Comprendre les données dont vous disposez actuellement : ce qui manque, ce qui est incohérent et où se trouvent les plus grands écarts de classification. Cette étape produit un jeu de données nettoyé que vous conservez, ainsi qu'une vision claire de ce qui doit se passer ensuite.
Étape 2 – Nettoyage et data enrichment automatisés. Les corrections à volume élevé et répétables sont gérées par l'automatisation. Le modèle est entraîné sur vos données spécifiques, il apprend donc comment votre entreprise décrit ce qu'elle achète. Les cas ambigus sont mis en évidence pour examen humain. Cette étape gère généralement 85 à 95 % des corrections sans intervention manuelle.
Étape 3 – Contrôle qualité continu. Les nouvelles données entrant dans le système sont validées par rapport au même standard que les données nettoyées. La qualité ne se dégrade pas avec le temps car les vérifications s'exécutent automatiquement.

Stephanie Wiechers
CEO & Co-founder, Pearstop
Stephanie leads Pearstop's go-to-market and strategic direction. She works directly with procurement and FM leaders across Europe to understand how data quality affects margins, contracts, and AI readiness.
LinkedIn →