Ein Krankenhaus will AI fuer Diagnostik einsetzen, darf aber keine Patientendaten weitergeben. Eine Bank braucht ein Modell zur Betrugserkennung, aber Vorschriften verbieten den Export von Transaktionsdaten. Federated Learning loest diesen fundamentalen Konflikt: Das Modell geht zu den Daten, nicht die Daten zum Modell. Jeder Teilnehmer trainiert lokal auf seinen eigenen Daten und teilt nur Modell-Updates, niemals Rohdaten.
Wie es funktioniert¶
Jeder Teilnehmer (Client) trainiert eine Kopie des Modells lokal auf seinen Daten. Nur Modell-Updates (Gradienten oder Parameter) werden an die Zentrale gesendet, niemals die Daten selbst. Der zentrale Server aggregiert diese Updates (typischerweise gewichteter Durchschnitt) und verteilt das aktualisierte globale Modell zurueck an die Clients. Der Prozess wiederholt sich in Iterationen, bis das Modell die erforderliche Genauigkeit erreicht. Differential Privacy wird als zusaetzliche Schutzschicht hinzugefuegt — Rauschen in den Gradienten verhindert das Ableiten individueller Datenpunkte.
Typen¶
- Cross-Device: Millionen mobiler Geraete (z.B. Google Keyboard-Vorhersage) — riesige Anzahl von Clients mit kleinen Datensaetzen
- Cross-Silo: Organisationen arbeiten zusammen (Krankenhaeuser, Banken, Telcos) — kleine Anzahl von Clients mit grossen Datensaetzen
Cross-Silo ist fuer Unternehmen relevanter — es ermoeglicht das Training von Modellen auf Daten mehrerer Organisationen ohne Verletzung von Vorschriften und ohne Zentralisierung. Beispielsweise kann ein Krankenhaukkonsortium gemeinsam ein Diagnosemodell trainieren, ohne dass ein Krankenhaus Patientendaten weitergibt.
Frameworks¶
- Flower: Framework-agnostisch, das beliebteste Open-Source-FL-Framework, unterstuetzt sowohl PyTorch als auch TensorFlow
- PySyft: Privacy-first-Ansatz mit Differential Privacy und Secure Multi-Party Computation
- NVIDIA FLARE: Enterprise-Grade fuer Gesundheitswesen und Pharma, integriert mit NVIDIA Clara
Herausforderungen¶
Datenheterogenitaet (Nicht-IID-Verteilung), Kommunikations-Overhead (Uebertragung von Modellen ueber das Netzwerk), Poisoning-Angriffe (ein Angreifer sendet schaedliche Updates) und Konvergenz (das Modell konvergiert langsamer als zentralisiertes Training).
Federated Learning ist die Zukunft datenschutzfreundlicher AI¶
Fuer das Gesundheitswesen, den Finanzsektor und den oeffentlichen Dienst ist es der einzige Weg zu AI ohne Zentralisierung der Daten. Mit wachsenden regulatorischen Anforderungen (DSGVO, DORA) wird Federated Learning zunehmend wichtiger.
Brauchen Sie Hilfe bei der Implementierung?
Unsere Experten helfen Ihnen bei Design, Implementierung und Betrieb. Von der Architektur bis zur Produktion.
Kontaktieren Sie uns