AI & Digital

La Maturité AI n'est pas un problème informatique. C'est un problème de données.

Les outils AI amplifient toute structure existante dans vos données. Si vos données de procurement et d'asset sont désordonnées, l'AI les rend coûteusement erronées. Voici ce que la maturité exige réellement.

AI & Digital18 March 20268 min read

Chaque organisation avec laquelle nous discutons souhaite utiliser l'AI. La plupart ne le peuvent pas – non pas parce que la technologie est indisponible, mais parce que leurs données ne sont pas prêtes pour cela. Les outils AI ne créent pas de structure à partir du chaos. Ils amplifient toute structure déjà existante. Si vos données d'entrée sont incohérentes, fragmentées et mal classifiées, le résultat AI sera sûrement et coûteusement erroné.

What AI tools actually require from your data

Les plateformes AI modernes – y compris Microsoft Copilot, Power BI avec des fonctionnalités AI, Microsoft Fabric et les outils d'intelligence de procurement tiers – partagent une hypothèse commune : les données sur lesquelles elles opèrent sont structurées, cohérentes et fiables.

Structuré signifie que les champs contiennent ce qu'ils sont censés contenir. Un type d'asset est un type d'asset, pas un champ de texte libre qui indique "pompe (vérifier avec Brian)". Cohérent signifie que le même concept est décrit de la même manière dans l'ensemble du jeu de données. Fiable signifie que les données ont été validées par rapport à une norme connue, et non simplement accumulées sans contrôles qualité.

Lorsque ces conditions ne sont pas remplies, les outils AI n'échouent pas proprement. Ils produisent des résultats qui semblent faire autorité – des dashboards bien formatés, des prédictions sûres – mais qui sont basés sur des entrées ne représentant pas fidèlement l'entreprise.

The Microsoft Fabric reality

De nombreuses organisations dans les hard services, la construction et les infrastructures planifient ou exécutent actuellement une migration vers Microsoft Fabric. Il s'agit d'une orientation stratégique raisonnable. Fabric est puissant et bien intégré à l'écosystème Microsoft.

Le problème est le timing. Les migrations Fabric révèlent les problèmes de data quality de manière inconfortable – précisément au moment où l'organisation est la plus investie dans le fonctionnement de la plateforme. Le schéma est cohérent : la migration commence, les données sont chargées, et les dashboards révèlent des incohérences qui n'étaient pas visibles auparavant. Les premiers mois d'un déploiement Fabric sont consacrés à la remédiation des données plutôt qu'à la création de valeur.

Les organisations qui tirent le meilleur parti de Fabric sont celles qui résolvent leurs problèmes de data quality avant la migration. Les données qui affluent vers la plateforme sont propres, classifiées et structurées de manière cohérente. Le déploiement génère de la valeur dès le premier jour.

AI readiness: a practical checklist

Avant que votre organisation ne soit prête à extraire de la valeur des outils AI, cinq conditions de données doivent être remplies :

  • Classification de spend cohérente – Toutes les lignes de procurement sont-elles classifiées selon une norme reconnue telle que UNSPSC ou eClass ? Ou sont-elles décrites en texte libre qui varie selon l'utilisateur, le site et le système ?
  • Enregistrements de supplier dédupliqués – Chaque supplier apparaît-il comme un seul enregistrement ? Siemens Building Technologies Ltd, Siemens BT et Siemens invoice sont trois enregistrements qui devraient n'en faire qu'un.
  • Données d'asset précises – Les enregistrements d'asset contiennent-ils le nom du fabricant, le numéro de modèle et la date d'installation – ou juste une étiquette et un emplacement ?
  • Saisie de données validée – Lorsque de nouvelles données entrent dans le système, sont-elles automatiquement vérifiées par rapport à votre structure de données existante, ou arrivent-elles dans le format utilisé par l'expéditeur ?
  • Baseline de data quality historique – Savez-vous quel pourcentage de vos données actuelles est correctement classifié, complet et cohérent – ou est-ce une question ouverte ?

Si deux ou plusieurs de ces conditions ne sont pas remplies, votre Maturité AI est inférieure à ce que suggère la feuille de route IT.

What good data preparation looks like

Phase 1 – Évaluation de la baseline. Une évaluation structurée des données actuelles : ce qui manque, ce qui est incohérent et où se situent les plus grandes lacunes de qualité. Résultat : un jeu de données échantillon nettoyé et un plan d'action clair.

Phase 2 – Nettoyage et data enrichment automatisés. L'apprentissage automatique gère les corrections à grand volume. Les cas nécessitant un jugement sont signalés pour un examen humain. Cette phase gère généralement 85 à 95 % du travail de remédiation sans intervention manuelle.

Phase 3 – Contrôle qualité continu. Une couche continue qui valide les nouvelles données à mesure qu'elles entrent dans le système, maintenant le standard de qualité plutôt que de le laisser se dégrader avec le temps.

Si vous voulez comprendre à quel point vos données sont réellement prêtes, une baseline de data quality est le bon point de départ.

"Pearstop a construit un système qui extrait automatiquement les bons éléments de nos rapports de visite pour les intégrer dans un document de proposition propre. Cela fait gagner beaucoup de temps à notre équipe en éliminant les tâches répétitives de combinaison des éléments corrects."

– Vince Out, Lemtech · Fabrication et Filtration de l'Air

Stephanie Wiechers

Stephanie Wiechers

CEO & Co-founder, Pearstop

Stephanie leads Pearstop's go-to-market and strategic direction. She works directly with procurement and FM leaders across Europe to understand how data quality affects margins, contracts, and AI readiness.

LinkedIn →