Edge Computing
Entscheidungen in 10ms. Ohne Cloud.
Datenverarbeitung am Netzwerkrand. Computer Vision, Anomalieerkennung, autonome Entscheidungsfindung ohne Cloud-Abhaengigkeit.
Warum Edge Computing¶
Nicht alles gehoert in die Cloud. Wenn eine Sortierlinie eine Entscheidung in 10ms braucht, koennen Sie nicht auf einen Roundtrip zu Azure warten (mindestens 50-100ms). Wenn eine Kamera 25 fps in 4K-Aufloesung erzeugt, koennen Sie nicht 15 GB/Stunde in die Cloud senden. Wenn ein Sicherheitssystem auch bei Internetausfall reagieren muss, koennen Sie nicht von Cloud-Konnektivitaet abhaengen.
Edge Computing verarbeitet Daten dort, wo sie entstehen. Die Cloud erhaelt Ergebnisse — Alarme, aggregierte Metriken, Business Events — keine Rohdaten. Das Ergebnis: niedrigere Latenz, niedrigere Bandbreitenkosten, hoehere Resilienz, niedrigere Cloud-Rechnung.
Wann Edge, wann Cloud¶
| Kriterium | Edge | Cloud |
|---|---|---|
| Latenz < 50ms | ✅ | ❌ |
| Daten mit hoher Bandbreite (Video, Audio) | ✅ Lokal verarbeitet | ❌ Zu teuer zum Uebertragen |
| Offline-Resilienz | ✅ | ❌ |
| Compliance (Datenlokalitaet) | ✅ Daten bleiben vor Ort | ⚠️ Abhaengig von Region |
| Komplexes ML-Training | ❌ Begrenzte Rechenleistung | ✅ GPU-Cluster |
| Flottenweite Analytics | ❌ Isolierte Daten | ✅ Zentralisierte Sicht |
Die richtige Antwort ist hybrid. Edge fuer Echtzeit-Entscheidungen und Vorverarbeitung. Cloud fuer Training, Flottenanalyse, Langzeitspeicherung.
Computer Vision am Edge¶
Hardware¶
NVIDIA Jetson-Reihe: - Jetson Orin Nano (8GB): 40 TOPS, ideal fuer Single-Camera CV-Aufgaben. ~$200. - Jetson Orin NX (16GB): 100 TOPS, Multi-Camera, komplexere Modelle. - Jetson AGX Orin (64GB): 275 TOPS, Enterprise-Workloads, mehrere ML-Pipelines.
Alternativen: - Google Coral TPU: USB- oder M.2-Beschleuniger. 4 TOPS, Ultra-Low-Power. Fuer einfache Klassifizierung/Erkennung. - Intel NCS2 / OpenVINO: x86-Inferenz-Optimierung. Geeignet wenn der Edge-Knoten Intel-basiert ist. - Hailo-8: 26 TOPS, M.2-Formfaktor. Wettbewerbsfaehige Alternative zu NVIDIA fuer dedizierte Inferenz.
Modelloptimierung fuer Edge¶
Ein Cloud-Modell (FP32, 200MB) kann nicht einfach auf den Edge verschoben werden. Optimierungspipeline:
- Quantisierung: FP32 → FP16 → INT8. Bis zu 4x kleineres Modell, 2-3x schnellere Inferenz. Genauigkeitsverlust typischerweise <1% bei korrekter Kalibrierung.
- Pruning: Entfernung von Neuronen mit niedriger Aktivierung. 30-50% Parameterreduktion ohne messbaren Genauigkeitsverlust.
- Knowledge Distillation: Grosses „Teacher”-Modell trainiert kleines „Student”-Modell. Student erreicht 90-95% der Teacher-Genauigkeit mit 10% der Parameter.
- TensorRT (NVIDIA): GPU-spezifische Optimierungen — Layer Fusion, Kernel Auto-Tuning, dynamischer Tensorspeicher. 2-5x Speedup gegenueber Vanilla PyTorch.
- OpenVINO (Intel): Analoge Optimierung fuer Intel CPU/GPU/VPU.
Use Cases¶
Qualitaetskontrolle: Kamera ueber der Produktionslinie, Modell erkennt Defekte (Kratzer, Verformungen, fehlende Teile). Inferenz unter 30ms pro Frame = Echtzeit-QC bei 30 fps. Reject-Signal an SPS in < 50ms.
OCR auf Etiketten: Lesen von Seriennummern, Chargencodes, Verfallsdaten. Strukturierte Daten statt manueller Abschrift.
Personenzaehlung / Belegung: Erkennung und Tracking von Personen in einem Raum. Heatmaps, Flow-Analyse, Kapazitaetsmanagement. DSGVO-konform — Video wird am Edge verarbeitet, nur Zaehlergebnisse gehen in die Cloud.
Sicherheitszonen-Ueberwachung: Erkennung von Personen in Gefahrenzonen um Maschinen. Alert an Operator, Signal an SPS zum Stoppen. Latenz entscheidet — 50ms Edge vs. 200ms+ Cloud.
Anomalieerkennung am Edge¶
Nicht jede Anomalie erfordert ein ML-Modell. Statistik reicht oft — muss aber lokal laufen:
Statistische Methoden¶
- Z-Score: Aktueller Wert vs. historischer Mittelwert und Standardabweichung. Einfach, interpretierbar. Alert wenn |z| > 3.
- Gleitender Durchschnitt + Baender: Exponentieller gleitender Durchschnitt mit Bollinger-Baendern. Adaptiv an saisonale Muster.
- Change Point Detection: CUSUM, PELT-Algorithmen. Erkennung permanenter Verteilungsaenderungen (kein Spike, sondern ein Shift).
ML-Modelle am Edge¶
- Isolation Forest: Unueberwacht, baumbasiert. Anomalien sind „leicht zu isolierende” Punkte. Schnell, wenig Speicher.
- One-class SVM: Grenze um normale Daten. Alles ausserhalb = Anomalie.
- Autoencoder: Neuronales Netzwerk komprimiert und rekonstruiert Eingabe. Hoher Rekonstruktionsfehler = Anomalie. Bewaltigt komplexe, multivariate Muster die Statistik uebersieht.
- Temporale Modelle: LSTM/GRU fuer Zeitreihen-Anomalien. Sagt naechsten Wert vorher, vergleicht mit tatsaechlichem. Grosse Abweichung = Anomalie.
Typische Anwendungen¶
- Vibrationsanalyse: Beschleunigungssensor an Motor/Lager. FFT-Spektrum am Edge. Aenderung des Frequenzprofils = Lagerdegradation.
- Stromverbrauch: Strom und Spannung. Anomaler Verbrauch = mechanisches Problem, verstopfter Filter, Ueberlastung.
- Temperaturdrift: Langsamer Temperaturanstieg der in Rohdaten nicht sichtbar waere. Edge erkennt den Trend Tage im Voraus.
Edge-Orchestrierung¶
K3s (Lightweight Kubernetes)¶
Kubernetes-Cluster am Edge — gleiche Abstraktionen (Pods, Deployments, Services), aber Single-Binary mit niedrigen Ressourcenanforderungen:
- Single Node: K3s auf einem Jetson/RPi. Orchestriert mehrere Container.
- Multi-Node-Cluster: Mehrere Edge-Geraete in einem Cluster. Service Mesh fuer Inter-Node-Kommunikation.
- GitOps Deploy: Flux oder ArgoCD. Git Push → automatischer Rollout auf Edge-Cluster.
Docker fuer einfachere Szenarien¶
Nicht jeder Edge braucht Kubernetes:
- Docker Compose fuer Multi-Container-Anwendungen
- Watchtower fuer automatische Image-Updates
- Portainer fuer GUI-Management
Zentrales Management¶
- Azure IoT Edge: Runtime auf Edge-Geraeten, Management aus Azure. Modul-Deployment, Monitoring, Remote Troubleshooting.
- AWS Greengrass: Lambda-Funktionen am Edge, Managed Deployment, Shadow Sync.
- Custom: Ansible fuer Konfiguration, Terraform fuer Infrastruktur, Custom Fleet Dashboard.
Offline-Resilienz¶
Der Edge-Knoten muss bei Konnektivitaetsausfaellen autonom arbeiten:
- Lokale Decision Engine: Alle Regeln und Modelle lokal. Entscheidungen haengen nicht von der Cloud ab.
- Store-and-Forward: Telemetrie wird lokal gespeichert (SQLite, RocksDB). Nach Wiederherstellung der Konnektivitaet chronologischer Versand.
- Lokales Alerting: Alerts werden lokal zugestellt (Sirene, Signalleuchte, Display) auch ohne Internet.
- Autonomer Betrieb: Produktionslinie laeuft mit Edge-QC auch ohne Cloud. Cloud ergaenzt Flottenanalyse, ist aber fuer den Betrieb nicht erforderlich.
Technologie-Stack¶
Hardware: NVIDIA Jetson (Nano/Orin), Raspberry Pi 4/5, Google Coral, Intel NUC, industrielle IPCs.
ML Runtime: TensorRT, OpenVINO, TensorFlow Lite, ONNX Runtime, PyTorch Mobile.
CV: OpenCV, GStreamer, DeepStream (NVIDIA), YOLO, MediaPipe.
Orchestrierung: K3s, Docker, Azure IoT Edge, AWS Greengrass, Balena.
Speicher: SQLite, RocksDB, Redis, lokale InfluxDB.
Monitoring: Prometheus Node Exporter, Grafana Agent, Custom Health Checks.
Häufig gestellte Fragen
Pilot auf einer Linie/Zone: 2-3 Monate. Scale-out auf den gesamten Betrieb: 6-12 Monate. Abhaengig von der Komplexitaet der Integration mit bestehenden Systemen.
Wir sind hardware-agnostisch. NVIDIA Jetson, Raspberry Pi, industrielle IPCs, Zebra-Scanner, diverse PLC-Marken. Wir waehlen basierend auf Anforderungen, Umgebung und Zertifizierungen.