AI & Digital

AI-Bereitschaft ist kein IT-Problem. Es ist ein Datenproblem.

AI-Tools verstärken jede Struktur, die in Ihren Daten vorhanden ist. Wenn Ihre procurement- und asset-Daten unordentlich sind, macht AI sie teuer falsch. Hier ist, was Bereitschaft tatsächlich erfordert.

AI & Digital18 March 20268 min read

Jede Organisation, mit der wir sprechen, möchte AI nutzen. Die meisten können es nicht – nicht weil die Technologie nicht verfügbar ist, sondern weil ihre Daten nicht dafür bereit sind. AI-Tools schaffen keine Struktur aus Chaos. Sie verstärken jede Struktur, die bereits existiert. Wenn Ihre Eingabedaten inkonsistent, fragmentiert und schlecht klassifiziert sind, wird die AI-Ausgabe selbstbewusst, teuer falsch sein.

What AI tools actually require from your data

Moderne AI-Plattformen – einschließlich Microsoft Copilot, Power BI mit AI-Funktionen, Microsoft Fabric und Drittanbieter-procurement-Intelligence-Tools – teilen eine gemeinsame Annahme: Die Daten, mit denen sie arbeiten, sind strukturiert, konsistent und vertrauenswürdig.

Strukturiert bedeutet, dass Felder das enthalten, was sie enthalten sollen. Asset-Typ ist ein Asset-Typ, kein Freitextfeld, das „Pumpe (Rücksprache mit Brian)“ lautet. Konsistent bedeutet, dass dasselbe Konzept im gesamten Datensatz auf die gleiche Weise beschrieben wird. Vertrauenswürdig bedeutet, dass die Daten gegen einen bekannten Standard validiert wurden, nicht nur ohne Qualitätsprüfungen angesammelt wurden.

Wenn diese Bedingungen nicht erfüllt sind, versagen AI-Tools nicht sauber. Sie erzeugen Ausgaben, die autoritativ wirken – gut formatierte dashboards, zuverlässige Vorhersagen – aber auf Eingaben basieren, die das Geschäft nicht genau repräsentieren.

The Microsoft Fabric reality

Viele Organisationen in hard services, Bauwesen und Infrastruktur planen oder führen derzeit eine Migration zu Microsoft Fabric durch. Dies ist eine vernünftige strategische Ausrichtung. Fabric ist leistungsstark und gut in das Microsoft-Ökosystem integriert.

Das Problem ist das Timing. Fabric-Migrationen decken data quality-Probleme auf unangenehme Weise auf – genau in dem Moment, in dem die Organisation am stärksten in die Funktionsfähigkeit der Plattform investiert ist. Das Muster ist konsistent: Die Migration beginnt, die Daten werden geladen, und die dashboards offenbaren Inkonsistenzen, die zuvor nicht sichtbar waren. Die ersten Monate einer Fabric-Bereitstellung werden durch Datenbereinigung statt durch Wertschöpfung in Anspruch genommen.

Die Organisationen, die am meisten von Fabric profitieren, sind diejenigen, die ihre data quality-Probleme vor der Migration lösen. Die Daten, die in die Plattform fließen, sind sauber, klassifiziert und konsistent strukturiert. Die Bereitstellung liefert vom ersten Tag an Wert.

AI readiness: a practical checklist

Bevor Ihre Organisation bereit ist, Wert aus AI-Tools zu ziehen, müssen fünf Datenbedingungen erfüllt sein:

  • Konsistente spend-Klassifizierung – Sind alle procurement-Positionen nach einem anerkannten Standard wie UNSPSC oder eClass klassifiziert? Oder in Freitext beschrieben, der je nach Nutzer, Standort und System variiert?
  • Deduplizierte supplier-Datensätze – Erscheint jeder supplier als ein Datensatz? Siemens Building Technologies Ltd, Siemens BT und Siemens invoice sind drei Datensätze, die einer sein sollten.
  • Genaue asset-Daten – Enthalten asset-Datensätze Herstellername, Modellnummer und Installationsdatum – oder nur eine Bezeichnung und einen Standort?
  • Validierte Dateneingabe – Wenn neue Daten in das System gelangen, wird sie automatisch gegen Ihre bestehende Datenstruktur geprüft, oder kommt sie in dem Format an, das der Absender verwendet hat?
  • Historische data quality baseline – Wissen Sie, welcher Prozentsatz Ihrer aktuellen Daten korrekt klassifiziert, vollständig und konsistent ist – oder ist das eine offene Frage?

Wenn zwei oder mehr dieser Bedingungen nicht erfüllt sind, ist Ihre AI-Bereitschaft niedriger, als die IT-Roadmap vermuten lässt.

What good data preparation looks like

Phase 1 – Baseline-Bewertung. Eine strukturierte Bewertung der aktuellen Daten: was fehlt, was inkonsistent ist und wo die größten Qualitätslücken bestehen. Output: ein bereinigter Beispieldatensatz und ein klarer Aktionsplan.

Phase 2 – Automatisierte Bereinigung und data enrichment. Machine Learning übernimmt die Korrekturen mit hohem Volumen. Fälle, die eine Beurteilung erfordern, werden zur menschlichen Überprüfung markiert. Diese Phase erledigt typischerweise 85—95% der Bereinigungsarbeit ohne manuellen Eingriff.

Phase 3 – Laufende Qualitätskontrolle. Eine kontinuierliche Schicht, die neue Daten validiert, sobald sie in das System gelangen, und den Qualitätsstandard aufrechterhält, anstatt ihn mit der Zeit abzubauen.

Wenn Sie verstehen möchten, wie bereit Ihre Daten tatsächlich sind, ist eine data quality baseline der richtige Ausgangspunkt.

„Pearstop hat ein System entwickelt, das automatisch die richtigen Elemente aus unseren Besuchsberichten in ein sauberes Angebotsdokument zieht. Es spart unserem Team viel Zeit, indem es die sich wiederholenden Aufgaben des Kombinierens der korrekten Elemente eliminiert.“

– Vince Out, Lemtech · Fertigung & Luftfiltration

Stephanie Wiechers

Stephanie Wiechers

CEO & Co-founder, Pearstop

Stephanie leads Pearstop's go-to-market and strategic direction. She works directly with procurement and FM leaders across Europe to understand how data quality affects margins, contracts, and AI readiness.

LinkedIn →