farblich dargestellte Kette

Fehlerketten in der Intralogistik identifizieren und durchbrechen – eine Referenz zum systematischen Entwickeln von KI-Use-Cases. (Bild: Erium)

Vereinfachte Darstellung der Datenstrategie für das Beispiel der Fehlerkettenanalyse.
Bild 1: Vereinfachte Darstellung der Datenstrategie für das Beispiel der Fehlerkettenanalyse. (Bild: Erium)

Moderne Systemkomponenten der Intralogistik sind heutzutage vernetzt und an eine zentrale IT angebunden. Die darüber erfassbare Menge an Daten ist groß und vielfältig. Gleichzeitig gibt es in der Welt von KI und Data Analytics mittlerweile eine überwältigende Menge an Data-Analytics-Werkzeugen, Machine-Learning-Modellen und KI-Lösungen. Die Lösungsspanne geht von proprietär bis open source und von speziellen Individual-Use-Cases – wie beispielsweise der Verfüge-Optimierung von Kunststoffbauteilen in der Automobilproduktion – bis hin zu allgemeinen Werkzeugen wie Chat GPT.

Es ist daher naheliegend, diese Technologie auch zum Vorteil des eigenen Unternehmens einzusetzen. Gleichzeitig ist es jedoch komplex, ein erfolgreiches Analytics-Programm aufzubauen. Ein solches Programm gilt dann als erfolgreich, wenn im Einklang mit den übergeordneten Unternehmenszielen und unter effizientem Ressourceneinsatz effektive Lösungen geschaffen werden. Wie dies erreicht werden kann, wird anhand des folgenden Beispiels illustriert.

Fehlerketten identifizieren und durchbrechen

Benutzer-Interface-Ausschnitt des „Fehlerketten Analyzers“ mit der Illustration eines beispielhaften Störmeldenetzwerks.
Bild 2: Benutzer-Interface-Ausschnitt des „Fehlerketten Analyzers“ mit der Illustration eines beispielhaften Störmeldenetzwerks. (Bild: Erium)

Im Folgenden wird das Vorgehen von Erium illustriert, mithilfe dessen innerhalb von zwei Wochen gemeinsam mit dem Unternehmen DE Software & Control insgesamt drei Datenprodukte konzipiert, realisiert und validiert wurden. Die Analytics-Initiative hatte das Ziel, die OEE (Overall Equipment Effectiveness) einer Produktionsanlage zu verbessern. Ausgangspunkt war das DE PTS (Process Tracking System), in dem zentral unter anderem Informations-, Warn- und Störmeldungen inklusive Zeitstempel und Quelle gesammelt werden. Mithilfe dieses Systems wurde ein Beispieldatensatz von Meldungen eines Jahres der Intralogistik einer Produktionsanlage generiert.

Dieser Datensatz in Kombination mit dem Ziel der OEE-Optimierung bildete den Startpunkt für den Bau und die Umsetzung einer systematischen Datenstrategie, die in vereinfachter Form in Bild 1 dargestellt wird. Für eine vollständige Datenstrategie müssen (potenziell) verfügbare Datenquellen durch spezifische Lösungen auf spezifische Prozesse und schließlich auf die Firmenziele einzahlen. Um diese Verknüpfung herzustellen, wurde ein iterativer Prozess zur Ideenentwicklung, Validierung und Priorisierung gestartet:

Initiative 1

Zunächst wurde ein Frühwarnsystem für Störungen entwickelt. Das Ziel war, die Anlagen-OEE durch eine Verkürzung der Stillstandzeiten zu verbessern, indem sich das Instandhaltungspersonal auf die kommende Störung hätte einstellen oder diese sogar gänzlich hätte verhindern können. Eine Analyse der Daten zeigte jedoch, dass der Datensatz die für eine brauchbare Vorhersage von Störungen nötige Informationstiefe nicht aufweist. Diese Erkenntnis führte zu zwei Folge-Initiativen.

Initiative 2A

Die initiale Datenanalyse zeigte, dass zwar nicht die Störungen an sich ausreichend genau vorhergesagt werden können, wohl aber die Dauer einer Störung, sobald diese erst einmal aufgetreten ist. Mithilfe dieser wertvollen Information kann unmittelbar – und vor allem automatisiert – entschieden werden, ob sofort der Second-Level-Support der Instandhaltung ohne Zeitverzögerung hinzugezogen werden sollte, um so Warte- und Stillstandzeiten zu minimieren. Auf Basis dieser Information wurde direkt ein Klassifikationsmodul entwickelt, das sich leicht in bestehende Dashboards integrieren lässt.

Initiative 2B

Im Rahmen der Datenanalyse konnte ein wertvolles Daten-Asset aus dem Rohdatensatz gewonnen werden: ein Fehlermeldungsnetzwerk. Dabei wurde statistisch ermittelt, welche Meldungen im Rohdatensatz gemeinsam auftraten. Das Fehlernetzwerk bildete damit die Basis für den im Rahmen des Projektes entwickelten Fehlerketten Analyzer (siehe Bild 2). Mit dieser Anwendung können Stör- und Warnmeldungsketten nachvollzogen werden, um systematische Vorgängermeldungen zu identifizieren. Auf diese Weise konnten beispielsweise kleinere Schleppfehler, die einzeln nur als Warnungen im Logfile erschienen, als Ursache einer späteren kostspieligen Störung an einem Übergabepunkt identifiziert werden. Der Analyzer ermöglicht es, die eigentlichen Verursacher von Störungen gezielt zu ermitteln und damit zu beheben.

Einige Punkte sind im Zusammenhang mit diesem Ablauf besonders hervorzuheben:

  • Ausgehend von Initiative 1 hat sich das Team nach wenigen Tagen konsequent auf die Initiativen 2A und 2B ausgerichtet, da von allen Mitarbeitenden die Red-Flags aus der Daten- und Modellvalidierung ernst genommen wurden. Das hat die Verschwendung von wertvoller Zeit im Projekt verhindert.
  • Auch wenn Initiative 1 letztlich nicht umgesetzt wurde, ist sie keineswegs gescheitert. Sie bildete erst die Grundlage für die erfolgreichen Initiativen 2A und 2B.
  • Die Initiative 2B zahlt zwar auf das übergeordnete Ziel der OEE-Optimierung ein, allerdings über die Metrik der „Behebung von systematischen Störungsursachen“. Damit wird das Daten-Asset des Fehlernetzwerks anders genutzt, als wofür es ursprünglich vorgesehen war.

Die Methodik: The Halerium Methodology

Im Rahmen des beschriebenen Musterbeispiels wurden innerhalb von zwei Wochen Projektlaufzeit drei wertvolle Datenprodukte geschaffen: ein Daten-Asset, ein Applikationsbaustein und eine vollwertige Web-Applikation. Die erfolgreiche Umsetzung war dabei durch den Einsatz der passenden Arbeitsmethodik für Data-Analytics- und KI-Initiativen möglich: die Halerium Methodology, welche in Bild 3 dargestellt wird.

Die Halerium Methodik definiert drei entscheidende Projektebenen und hält diese über entsprechende Prozesse jederzeit synchron und gleichzeitig handlungsfähig:

  • Die Daten-Strategie-Ebene legt die generelle Richtung fest und nimmt globale Priorisierungen vor. Es werden Ressourcen, insbesondere Datensätze, freigegeben und Feedback zu potenziellen Business Cases gegeben.
  • Auf der Projekt-Management-Ebene werden die parallel laufenden Initiativen der aktuellen Use Cases in Balance gehalten. Die Reihenfolge wird so gestaltet, dass sich die Datenprodukte aufeinander aufbauend befähigen. Hier liegt auch die Verantwortung für die Rückmeldung und Koordination mit der Datenstrategieebene.
  • Die Umsetzung-Ebene unterscheidet je nach Reifegrad eines Use Cases drei verschiedene Umsetzungs-Phasen. In der Explorations-Phase wird zunächst stark Hypothesen-Test-getrieben gearbeitet, gefolgt von einer Phase der schnellen Prototypenentwicklung, bevor schließlich agile Lösungsentwicklung zum Einsatz kommt. Diese Granularität ist entscheidend für eine hohe Geschwindigkeit zu Beginn und gleichzeitig einer stabilisierenden Arbeitsweise zum Ende der Umsetzung eines Datenproduktes.

Was mit der Methodik möglich ist

Mit der Halerium Methodik lässt sich die Herausforderung des effizienten und gleichzeitig zielführenden Synchronisierens von Business-Zielen mit Daten-Quellen durch Use Cases lösen und damit eine maßgeschneiderten Datenstrategie erfolgreich umsetzen. Intralogistiksysteme moderner Produktionsanlagen bieten heutzutage zahlreiche Möglichkeiten für faszinierende Use-Cases. Die Vermeidung von Stillstandzeiten und das Durchbrechen von Fehlerketten sind dabei nur zwei Beispiele. Unternehmen sollten daher die Chance ergreifen, vorhandene Datenquellen und Werkzeuge zu nutzen und Analytics-Initiativen starten, um die eigenen Prozesse robuster und effizienter zu gestalten.

„KI-Methodik“

Eine Methodik (auch Framework genannt) ist eine bestimmte Art zu arbeiten und bildet das Fundament zur erfolgreichen Problemlösung. Es definiert eine umfassende Sammlung an Regeln und Leitlinien aus den folgenden Bereichen:

  • Leitprinzipien und Best Practices
  • konkrete Arbeitsprozesse
  • klar definierte Rollen und
  • Arbeitsobjekte, die auch Artefakte genannt werden.

Auch wenn eine Methodik eine feste Struktur aufweist, wird sie stets an die individuellen Bedürfnisse und Rahmenbedingungen eines Teams und einer Organisation angepasst, wie beispielsweise in Bezug auf Schnittstellen und die genutzten Werkzeuge.

Sie möchten gerne weiterlesen?