Zum Inhalt springen
_CORE
KI & Agentensysteme Unternehmensinformationssysteme Cloud & Platform Engineering Datenplattform & Integration Sicherheit & Compliance QA, Testing & Observability IoT, Automatisierung & Robotik Mobile & Digitale Produkte Banken & Finanzen Versicherungen Öffentliche Verwaltung Verteidigung & Sicherheit Gesundheitswesen Energie & Versorgung Telko & Medien Industrie & Fertigung Logistik & E-Commerce Retail & Treueprogramme
Referenzen Technologien Blog Know-how Tools
Über uns Zusammenarbeit Karriere
CS EN DE
Lassen Sie uns sprechen

Edge Computing

Entscheidungen in 10ms. Ohne Cloud.

Datenverarbeitung am Netzwerkrand. Computer Vision, Anomalieerkennung, autonome Entscheidungsfindung ohne Cloud-Abhaengigkeit.

4-12 Wochen
Implementierung
99,95%
Verfuegbarkeit
<100ms
Latenz
<12 Monate
ROI

Warum Edge Computing

Nicht alles gehoert in die Cloud. Wenn eine Sortierlinie eine Entscheidung in 10ms braucht, koennen Sie nicht auf einen Roundtrip zu Azure warten (mindestens 50-100ms). Wenn eine Kamera 25 fps in 4K-Aufloesung erzeugt, koennen Sie nicht 15 GB/Stunde in die Cloud senden. Wenn ein Sicherheitssystem auch bei Internetausfall reagieren muss, koennen Sie nicht von Cloud-Konnektivitaet abhaengen.

Edge Computing verarbeitet Daten dort, wo sie entstehen. Die Cloud erhaelt Ergebnisse — Alarme, aggregierte Metriken, Business Events — keine Rohdaten. Das Ergebnis: niedrigere Latenz, niedrigere Bandbreitenkosten, hoehere Resilienz, niedrigere Cloud-Rechnung.

Wann Edge, wann Cloud

Kriterium Edge Cloud
Latenz < 50ms
Daten mit hoher Bandbreite (Video, Audio) ✅ Lokal verarbeitet ❌ Zu teuer zum Uebertragen
Offline-Resilienz
Compliance (Datenlokalitaet) ✅ Daten bleiben vor Ort ⚠️ Abhaengig von Region
Komplexes ML-Training ❌ Begrenzte Rechenleistung ✅ GPU-Cluster
Flottenweite Analytics ❌ Isolierte Daten ✅ Zentralisierte Sicht

Die richtige Antwort ist hybrid. Edge fuer Echtzeit-Entscheidungen und Vorverarbeitung. Cloud fuer Training, Flottenanalyse, Langzeitspeicherung.

Computer Vision am Edge

Hardware

NVIDIA Jetson-Reihe: - Jetson Orin Nano (8GB): 40 TOPS, ideal fuer Single-Camera CV-Aufgaben. ~$200. - Jetson Orin NX (16GB): 100 TOPS, Multi-Camera, komplexere Modelle. - Jetson AGX Orin (64GB): 275 TOPS, Enterprise-Workloads, mehrere ML-Pipelines.

Alternativen: - Google Coral TPU: USB- oder M.2-Beschleuniger. 4 TOPS, Ultra-Low-Power. Fuer einfache Klassifizierung/Erkennung. - Intel NCS2 / OpenVINO: x86-Inferenz-Optimierung. Geeignet wenn der Edge-Knoten Intel-basiert ist. - Hailo-8: 26 TOPS, M.2-Formfaktor. Wettbewerbsfaehige Alternative zu NVIDIA fuer dedizierte Inferenz.

Modelloptimierung fuer Edge

Ein Cloud-Modell (FP32, 200MB) kann nicht einfach auf den Edge verschoben werden. Optimierungspipeline:

  1. Quantisierung: FP32 → FP16 → INT8. Bis zu 4x kleineres Modell, 2-3x schnellere Inferenz. Genauigkeitsverlust typischerweise <1% bei korrekter Kalibrierung.
  2. Pruning: Entfernung von Neuronen mit niedriger Aktivierung. 30-50% Parameterreduktion ohne messbaren Genauigkeitsverlust.
  3. Knowledge Distillation: Grosses „Teacher”-Modell trainiert kleines „Student”-Modell. Student erreicht 90-95% der Teacher-Genauigkeit mit 10% der Parameter.
  4. TensorRT (NVIDIA): GPU-spezifische Optimierungen — Layer Fusion, Kernel Auto-Tuning, dynamischer Tensorspeicher. 2-5x Speedup gegenueber Vanilla PyTorch.
  5. OpenVINO (Intel): Analoge Optimierung fuer Intel CPU/GPU/VPU.

Use Cases

Qualitaetskontrolle: Kamera ueber der Produktionslinie, Modell erkennt Defekte (Kratzer, Verformungen, fehlende Teile). Inferenz unter 30ms pro Frame = Echtzeit-QC bei 30 fps. Reject-Signal an SPS in < 50ms.

OCR auf Etiketten: Lesen von Seriennummern, Chargencodes, Verfallsdaten. Strukturierte Daten statt manueller Abschrift.

Personenzaehlung / Belegung: Erkennung und Tracking von Personen in einem Raum. Heatmaps, Flow-Analyse, Kapazitaetsmanagement. DSGVO-konform — Video wird am Edge verarbeitet, nur Zaehlergebnisse gehen in die Cloud.

Sicherheitszonen-Ueberwachung: Erkennung von Personen in Gefahrenzonen um Maschinen. Alert an Operator, Signal an SPS zum Stoppen. Latenz entscheidet — 50ms Edge vs. 200ms+ Cloud.

Anomalieerkennung am Edge

Nicht jede Anomalie erfordert ein ML-Modell. Statistik reicht oft — muss aber lokal laufen:

Statistische Methoden

  • Z-Score: Aktueller Wert vs. historischer Mittelwert und Standardabweichung. Einfach, interpretierbar. Alert wenn |z| > 3.
  • Gleitender Durchschnitt + Baender: Exponentieller gleitender Durchschnitt mit Bollinger-Baendern. Adaptiv an saisonale Muster.
  • Change Point Detection: CUSUM, PELT-Algorithmen. Erkennung permanenter Verteilungsaenderungen (kein Spike, sondern ein Shift).

ML-Modelle am Edge

  • Isolation Forest: Unueberwacht, baumbasiert. Anomalien sind „leicht zu isolierende” Punkte. Schnell, wenig Speicher.
  • One-class SVM: Grenze um normale Daten. Alles ausserhalb = Anomalie.
  • Autoencoder: Neuronales Netzwerk komprimiert und rekonstruiert Eingabe. Hoher Rekonstruktionsfehler = Anomalie. Bewaltigt komplexe, multivariate Muster die Statistik uebersieht.
  • Temporale Modelle: LSTM/GRU fuer Zeitreihen-Anomalien. Sagt naechsten Wert vorher, vergleicht mit tatsaechlichem. Grosse Abweichung = Anomalie.

Typische Anwendungen

  • Vibrationsanalyse: Beschleunigungssensor an Motor/Lager. FFT-Spektrum am Edge. Aenderung des Frequenzprofils = Lagerdegradation.
  • Stromverbrauch: Strom und Spannung. Anomaler Verbrauch = mechanisches Problem, verstopfter Filter, Ueberlastung.
  • Temperaturdrift: Langsamer Temperaturanstieg der in Rohdaten nicht sichtbar waere. Edge erkennt den Trend Tage im Voraus.

Edge-Orchestrierung

K3s (Lightweight Kubernetes)

Kubernetes-Cluster am Edge — gleiche Abstraktionen (Pods, Deployments, Services), aber Single-Binary mit niedrigen Ressourcenanforderungen:

  • Single Node: K3s auf einem Jetson/RPi. Orchestriert mehrere Container.
  • Multi-Node-Cluster: Mehrere Edge-Geraete in einem Cluster. Service Mesh fuer Inter-Node-Kommunikation.
  • GitOps Deploy: Flux oder ArgoCD. Git Push → automatischer Rollout auf Edge-Cluster.

Docker fuer einfachere Szenarien

Nicht jeder Edge braucht Kubernetes:

  • Docker Compose fuer Multi-Container-Anwendungen
  • Watchtower fuer automatische Image-Updates
  • Portainer fuer GUI-Management

Zentrales Management

  • Azure IoT Edge: Runtime auf Edge-Geraeten, Management aus Azure. Modul-Deployment, Monitoring, Remote Troubleshooting.
  • AWS Greengrass: Lambda-Funktionen am Edge, Managed Deployment, Shadow Sync.
  • Custom: Ansible fuer Konfiguration, Terraform fuer Infrastruktur, Custom Fleet Dashboard.

Offline-Resilienz

Der Edge-Knoten muss bei Konnektivitaetsausfaellen autonom arbeiten:

  • Lokale Decision Engine: Alle Regeln und Modelle lokal. Entscheidungen haengen nicht von der Cloud ab.
  • Store-and-Forward: Telemetrie wird lokal gespeichert (SQLite, RocksDB). Nach Wiederherstellung der Konnektivitaet chronologischer Versand.
  • Lokales Alerting: Alerts werden lokal zugestellt (Sirene, Signalleuchte, Display) auch ohne Internet.
  • Autonomer Betrieb: Produktionslinie laeuft mit Edge-QC auch ohne Cloud. Cloud ergaenzt Flottenanalyse, ist aber fuer den Betrieb nicht erforderlich.

Technologie-Stack

Hardware: NVIDIA Jetson (Nano/Orin), Raspberry Pi 4/5, Google Coral, Intel NUC, industrielle IPCs.

ML Runtime: TensorRT, OpenVINO, TensorFlow Lite, ONNX Runtime, PyTorch Mobile.

CV: OpenCV, GStreamer, DeepStream (NVIDIA), YOLO, MediaPipe.

Orchestrierung: K3s, Docker, Azure IoT Edge, AWS Greengrass, Balena.

Speicher: SQLite, RocksDB, Redis, lokale InfluxDB.

Monitoring: Prometheus Node Exporter, Grafana Agent, Custom Health Checks.

Häufig gestellte Fragen

Pilot auf einer Linie/Zone: 2-3 Monate. Scale-out auf den gesamten Betrieb: 6-12 Monate. Abhaengig von der Komplexitaet der Integration mit bestehenden Systemen.

Wir sind hardware-agnostisch. NVIDIA Jetson, Raspberry Pi, industrielle IPCs, Zebra-Scanner, diverse PLC-Marken. Wir waehlen basierend auf Anforderungen, Umgebung und Zertifizierungen.

Haben Sie ein Projekt?

Lassen Sie uns darüber sprechen.

Termin vereinbaren