Zum Inhalt springen
_CORE
KI & Agentensysteme Unternehmensinformationssysteme Cloud & Platform Engineering Datenplattform & Integration Sicherheit & Compliance QA, Testing & Observability IoT, Automatisierung & Robotik Mobile & Digitale Produkte Banken & Finanzen Versicherungen Öffentliche Verwaltung Verteidigung & Sicherheit Gesundheitswesen Energie & Versorgung Telko & Medien Industrie & Fertigung Logistik & E-Commerce Retail & Treueprogramme
Referenzen Technologien Blog Know-how Tools
Über uns Zusammenarbeit Karriere
CS EN DE
Lassen Sie uns sprechen

Monitoring & Predictive Maintenance

Reparieren, bevor es kaputt geht. Nicht danach.

Condition Monitoring, ML-Ausfallvorhersage, IoT-Dashboards. Von reaktiver zu praediktiver Wartung.

4-12 Wochen
Implementierung
99,95%
Verfuegbarkeit
<100ms
Latenz
<12 Monate
ROI

Von reaktiver zu praediktiver Wartung

Die meisten Industrieunternehmen betreiben Wartung reaktiv oder zeitbasiert. Beides ist suboptimal:

Reaktive Wartung: Maschine faellt aus → wir reparieren. Ungeplanter Ausfall, Expressteile, Ueberstunden. Der teuerste Ansatz — ein ungeplanter Ausfall kostet 3-10x mehr als ein geplanter.

Zeitbasierte Wartung: Lager alle 6 Monate austauschen. Unabhaengig vom tatsaechlichen Zustand. Wir tauschen Teile aus die noch funktionieren (Verschwendung). Und werden trotzdem von Ausfaellen zwischen den Intervallen ueberrascht.

Praediktive Wartung: Kontinuierliches Condition Monitoring. Wartung wenn Daten sagen „in 2 Wochen gibt es ein Problem” — nicht frueher (Verschwendung), nicht spaeter (Ausfall). Optimales Timing, minimale Ausfallzeiten.

ROI in Zahlen

Industriekonsens (McKinsey, Deloitte):

  • 25-30% Senkung der Wartungskosten
  • 70-75% Senkung ungeplanter Ausfaelle
  • 20-25% Verlaengerung der Geraetelebensdauer
  • 35-45% Reduktion des Ersatzteilbestands

Ungeplanter Ausfall einer Produktionslinie: erhebliche Kosten pro Stunde (branchenabhaengig). Ein vorhergesagter und vermiedener Ausfall bezahlt das Projekt.

Condition Monitoring

Sensoren und Messwerte

Vibration — empfindlichster Indikator fuer den mechanischen Zustand: - Beschleunigungssensoren an Lagerhaeusern, Motoren, Getrieben - FFT (Fast Fourier Transform)-Analyse des Frequenzspektrums - Charakteristische Frequenzen: BPFO, BPFI, BSF, FTF fuer verschiedene Lagerdefekttypen - Huelkurvenanalyse zur Erkennung fruehzeitiger Defekte

Temperatur: - Oberflaechentemperatur von Motoren, Lagern, Transformatoren - Thermokameras fuer beruehrungslose Messung - Trend: langsamer Anstieg ueber Baseline = Schmiermitteldegradation, Ueberlastung, verstopfter Kuehler

Elektrische Groessen: - Strom und Spannung — Motor Current Signature Analysis (MCSA) - Phasenasymmetrie = Wicklungsproblem - Stromanstieg bei konstanter Last = mechanischer Widerstand

Weitere: - Akustische Emission — Ultraschallerkennung von Leckagen, Teilentladungen - Druck — Hydrauliksysteme, Kompressoren, Filtersysteme - Durchfluss — Kuehlkreislaeufe, Schmiersysteme - Luftfeuchtigkeit — Transformatoroel, Isolierung

Sensorinfrastruktur

Nachruestung ohne Verkabelung:

Kabellose Vibrationssensoren (ABB, SKF, Fluke) mit 3-5 Jahren Batterielebensdauer. Installation in Minuten — Magnet oder Klebstoff am Lagergehaeuse. Kommunikation ueber BLE, Wi-Fi oder LoRaWAN zum Gateway → Cloud/Edge.

Integration mit bestehenden SPSen:

Die meisten modernen SPSen sammeln bereits Daten von Analogeingaengen. Keine zusaetzlichen Sensoren noetig — Daten einfach ueber OPC-UA exportieren. Einschraenkung: SPSen abtasten typischerweise langsam (1 Hz) — Vibration erfordert 10-50 kHz (dedizierter Sensor).

Anomalieerkennung

Baseline — was ist normal

Jede Maschine hat ihren „Fingerabdruck des Normalbetriebs”. Vibration bei 120 Hz mit Amplitude 2,5 mm/s ist normal fuer Motor X unter Last Y. Statistisches Modell des Normalzustands:

  • Trainingsphase: 2-4 Wochen Datensammlung im Normalbetrieb
  • Feature-Extraktion: Statistische Features (Mean, Std, RMS, Kurtosis, Crest Factor), Frequenz-Features (dominante Frequenzen, spektrale Entropie)
  • Baseline-Modell: Multivariate Normalverteilung oder Autoencoder

Anomalie-Erkennungsmethoden

Statistische Methoden (schnell einsetzbar): - Z-Score pro Feature. Alert wenn |z| > 3 (3 Sigma). - Regelkarten (Shewhart, CUSUM, EWMA). Industriestandard, gut verstaendlich. - Vorteil: interpretierbar, wenige False Positives, kein Training erforderlich.

ML-Methoden (genauer, komplexer): - Isolation Forest: Unueberwacht, baumbasiert. Anomalien sind „leicht zu isolierende” Punkte. Schnell, wenig Speicher. - One-class SVM: Grenze um normale Daten. Alles ausserhalb = Anomalie. - Autoencoder: Neuronales Netzwerk komprimiert und rekonstruiert Eingabe. Hoher Rekonstruktionsfehler = Anomalie. Bewaltigt multivariate, nichtlineare Muster. - Temporale Modelle: LSTM sagt naechsten Zeitschritt vorher. Grosse Abweichung Vorhersage vs. Ist = Anomalie.

Alert-Management

Nicht jede Anomalie ist ein Alarm. Hierarchie:

  1. Info: Abweichung erkannt, Trendmonitoring aktiviert
  2. Warnung: Abweichung haelt an / waechst. Inspektion planen.
  3. Alert: Hohe Ausfallwahrscheinlichkeit innerhalb von X Tagen. Wartung planen.
  4. Kritisch: Unmittelbares Risiko. Abschaltung erwaegen.

Ermuedungspraevention: Zu viele Fehlalarme = Operatoren ignorieren sie. Ziel: <5% False-Positive-Rate. Alert-Tuning ist ein kontinuierlicher Prozess.

Remaining Useful Life (RUL)-Vorhersage

Anomalieerkennung sagt: „etwas stimmt nicht.” RUL-Vorhersage sagt: „es haelt noch ungefaehr 14 Tage.”

Ansaetze

Physik-basierte Modelle: Mathematisches Modell des Degradationsprozesses (Paris-Gesetz fuer Rissausbreitung, Archard-Gleichung fuer Verschleiss). Genau, erfordert aber tiefes Domaenenwissen und Verstaendnis spezifischer Ausfallmodi.

Datengetriebene Modelle:

  1. Trainingsdaten: Historische Run-to-Failure-Daten — Sensoren von Installation bis Ausfall. Je mehr Run-to-Failure-Zyklen, desto besser das Modell.
  2. Feature Engineering: Gleitfenster-Statistiken, Trend-Features, Frequenzbereichs-Features.
  3. Modell: Gradient Boosted Trees (XGBoost, LightGBM) fuer tabellarische Daten. LSTM/Transformer fuer Sequenzdaten. Survival Analysis (Cox Regression) fuer zensierte Daten.
  4. Output: Vorhergesagte RUL in Tagen/Stunden + Konfidenzintervall.

Hybrid: Physics-informed Neural Networks — ML-Modell mit physikalischen Constraints. Das Beste aus beiden Welten.

Ohne historische Ausfalldaten

Keine Run-to-Failure-Daten? (Die meisten Unternehmen haben keine.) Wir beginnen mit:

  1. Anomalieerkennung — erkennt Abweichungen vom Normalzustand
  2. Degradations-Tracking — Trends bei Schluesselindikatoren
  3. Expertenwissen — Wartungsteam weiss, was Indikatoren bedeuten
  4. Schrittweise Ansammlung von Ausfalldaten — jeder Ausfall = Trainingsdaten fuer zukuenftiges Modell

Typischerweise sammeln wir nach 1-2 Jahren Betrieb genuegend Daten fuer ein ueberwachtes RUL-Modell.

IoT-Dashboards

Grafana als Visualisierungsplattform

  • Flottenuebersicht: Alle Maschinen auf einem Bildschirm. Gruen/Gelb/Rot. Drill-down ins Detail.
  • Maschinendetail: Echtzeit-Sensordaten, Trends, historischer Vergleich, Vorhersagen.
  • Schichtbericht: KPI pro Schicht — OEE, Verfuegbarkeit, Leistung, Qualitaet.
  • Wartungsansicht: Offene Arbeitsauftraege, anstehende Vorhersagen, Ersatzteilbestand.

Alerting-Integration

Alert aus Monitoring → automatischer Workflow:

  1. Anomalie erkannt → Alert in Grafana
  2. Arbeitsauftrag erstellt in CMMS (SAP PM, Maximo, Fiix)
  3. Zuweisung an Techniker (automatisch oder manuell)
  4. Techniker diagnostiziert und repariert
  5. Reparaturbestaetigung → Arbeitsauftrag geschlossen
  6. Feedback an ML-Modell (war die Vorhersage korrekt?)

Mobiler Zugang

Wartungsteam im Feld braucht Daten auf dem Telefon:

  • Responsive Grafana-Dashboards
  • Push-Benachrichtigungen bei neuem Alert
  • QR-Code an der Maschine → oeffnet das Maschinen-Dashboard auf dem Handy
  • Offline-Zugang zu Runbooks und Dokumentation

Technologie-Stack

Sensoren: ABB, SKF, Fluke Wireless Vibration. Industrielle RTD/Thermocouple. Stromwandler.

Datenpipeline: MQTT, OPC-UA, Kafka, InfluxDB, TimescaleDB.

ML: scikit-learn, XGBoost, PyTorch (LSTM/Transformer), MLflow, Kubeflow.

Visualisierung: Grafana, Custom Web Dashboards.

Integration: SAP PM, IBM Maximo, Fiix CMMS, Custom Work Order Systeme.

Edge: Verarbeitung am Edge fuer Echtzeit-Anomalieerkennung (siehe Edge Computing).

Häufig gestellte Fragen

Pilot auf einer Linie/Zone: 2-3 Monate. Scale-out auf den gesamten Betrieb: 6-12 Monate. Abhaengig von der Komplexitaet der Integration mit bestehenden Systemen.

Wir sind hardware-agnostisch. NVIDIA Jetson, Raspberry Pi, industrielle IPCs, Zebra-Scanner, diverse PLC-Marken. Wir waehlen basierend auf Anforderungen, Umgebung und Zertifizierungen.

Haben Sie ein Projekt?

Lassen Sie uns darüber sprechen.

Termin vereinbaren