Zum Inhalt springen
_CORE
KI & Agentensysteme Unternehmensinformationssysteme Cloud & Platform Engineering Datenplattform & Integration Sicherheit & Compliance QA, Testing & Observability IoT, Automatisierung & Robotik Mobile & Digitale Produkte Banken & Finanzen Versicherungen Öffentliche Verwaltung Verteidigung & Sicherheit Gesundheitswesen Energie & Versorgung Telko & Medien Industrie & Fertigung Logistik & E-Commerce Retail & Treueprogramme
Referenzen Technologien Blog Know-how Tools
Über uns Zusammenarbeit Karriere
CS EN DE
Lassen Sie uns sprechen

Kerninformationssysteme

Systeme, die das Geschäft am Laufen halten.

ERP, CRM, Logistik-IS und Datenmigrationen — wir bauen Systeme, die bestehen.

Logistik-IS & WMS

Sortierhubs, Sendungsverwaltung, Kuriersysteme. Event-driven Architektur mit Apache Kafka bewältigt Spitzen von 10.000+ Sendungen/Stunde ohne Leistungseinbußen.

Logistik ist Echtzeit-Geschäft. Eine Sendung, die 5 Minuten im System verloren geht, verursacht eine Kaskade von Problemen — falsche Sortierung, Lieferverzögerungen, SLA-Strafen. Wir bauen WMS und Logistik-IS, bei denen jede Sendung jederzeit einen klaren Status und einen klaren Weg hat.

Event-driven Architektur ist das Fundament. Jeder Scan, jede Umsortierung, jede Beladung erzeugt ein Event in Apache Kafka. Nachgelagerte Systeme (Tracking, Abrechnung, Reporting) konsumieren Events unabhängig. Der Ausfall eines Systems stoppt nicht die Sortierung — Events warten in Kafka und werden nach der Wiederherstellung verarbeitet.

Durchsatz und Latenz: Unsere WMS-Systeme verarbeiten 10.000+ Sendungen/Stunde in einem einzelnen Hub. API-Latenz unter 50ms bei P95. Horizontale Skalierung über Kubernetes — Kapazitätserweiterung in Minuten, nicht Tagen. Lasttests mit k6 simulieren Weihnachtsspitzen Monate im Voraus.

Hardware-Integration: Sortierlinien, Scan-Tore, Waagen, Etikettendrucker. Wir kommunizieren über OPC-UA, REST API und proprietäre Protokolle. Edge Processing auf Geräten gewährleistet Funktionalität auch bei Netzwerkausfällen — Daten synchronisieren sich nach Wiederherstellung der Konnektivität.

Praxisbeispiel: Für ein Logistikunternehmen mit 15 Hubs haben wir ein monolithisches System durch Event-driven Architektur ersetzt. Ergebnis: 3× höherer Durchsatz, MTTR von Stunden auf Minuten, null Sendungsverluste im System. ROI in 8 Monaten.

wmsevent-drivenkafka
Details →

Transaktionssysteme

Zahlungssysteme, Clearing-Prozesse, Buchhaltungskerne. ACID-Garantien, HA/DR mit automatischem Failover und vollständigem Audit-Trail für Regulierungsbehörden.

Transaktionssysteme haben keinen Platz für „fast funktioniert”. Wenn eine Zahlung zur Hälfte durchgeht, haben Sie ein Problem. Wir bauen Systeme mit ACID-Garantien, bei denen jede Transaktion entweder vollständig ist oder gar nicht stattgefunden hat. Keine inkonsistenten Zustände, kein verlorenes Geld.

Architektur für Zuverlässigkeit: Saga Pattern für verteilte Transaktionen über mehrere Services. Outbox Pattern für garantierte Event-Zustellung. Idempotente API — wiederholte Anfragen verursachen keine doppelten Transaktionen. Dead Letter Queue für fehlgeschlagene Nachrichten mit automatischem Retry und Alerting.

HA/DR-Design: Active-Passive mit automatischem Failover (RTO < 30s). Synchrone Replikation für null Datenverlust (RPO = 0). Regelmäßige DR-Tests — nicht einmal im Jahr auf dem Papier, sondern automatisierte monatliche Failover-Drills. Georedundanz für kritische Systeme.

Audit und Compliance: Jede Transaktion mit vollständigem Kontext protokolliert — wer, was, wann, woher. Unveränderliches Audit-Log (Append-Only). Der Regulator bekommt den vollständigen Trail in Minuten, nicht Tagen. Kompatibel mit CNB-, PSD2- und DORA-Anforderungen.

Leistung unter Last: Wir verarbeiten Tausende Transaktionen/Sekunde mit konstanter Latenz. Connection Pooling, Prepared Statements, optimierte Indizes. Lasttests simulieren den Black Friday 2× im Voraus — wir kennen das Limit, bevor wir es erreichen.

Transaktionenacidha-dr
Details →

Treue- & Identitätssysteme

Loyalty Engine, Punktesystem, Partnerintegration. Millionen von Kunden, Echtzeit-Punkte- und Prämienverarbeitung mit Personalisierung auf Einzelkundenebene.

Ein Treueprogramm ist ein Kernsystem, kein Marketing-Gadget. Wenn ein Kunde bezahlt und die Punkte nicht innerhalb von 5 Sekunden erscheinen, ruft er den Kundenservice an. Wenn ein Partner keine aktuellen Daten hat, verweigert er den Rabatt. Wir bauen Loyalty-Plattformen, die Millionen von Kunden in Echtzeit bedienen.

Echtzeit-Verarbeitung: Punkte werden im Moment der Transaktion gutgeschrieben, nicht im nächtlichen Batch. Event-driven Architektur — POS-System sendet Event, Loyalty Engine verarbeitet Regeln (Multiplikatoren, Bonusaktionen, Tier-Upgrades), der Kunde sieht den aktualisierten Status sofort. Latenz < 200ms End-to-End.

Rules Engine: Flexible Regeln ohne Deployment — das Marketing-Team richtet Kampagnen ein (2× Punkte am Wochenende, Bonus bei Einkauf über 1000 CZK, Partner-Multiplikator), das System wendet sie sofort an. Regelversionierung, A/B-Testing von Kampagnen, Echtzeit-Performance-Reporting.

Partnerintegration: REST API für Partner mit OAuth2, Rate Limiting, Webhook-Benachrichtigungen. Partner fragt Punktestand ab, wendet Rabatt an, meldet Transaktion. SLA pro Partner, Monitoring pro Endpunkt. Typischerweise 10–50 Partner, jeder mit eigenen Regeln.

Skalierung: Millionen von Kunden, Dutzende Millionen Transaktionen monatlich. Redis für Hot Data (aktuelle Punkte, Tier), PostgreSQL für Historie. Horizontale Skalierung — das Hinzufügen eines neuen Partners verlangsamt bestehende nicht. DSGVO-Compliance — Recht auf Löschung, Datenportabilität, Consent Management.

loyaltyidentityreal-time
Details →

Legacy Modernization

Strangler-Fig-Pattern, schrittweise Migration ohne Big-Bang-Rewrite. Jeder Schritt bringt Mehrwert, kein Schritt bricht die Produktion. Zero Downtime durchgehend.

Big-Bang-Rewrite ist Glücksspiel, keine Strategie. 70 % großer Rewrite-Projekte scheitern oder überschreiten das Budget um 2×+. Wir modernisieren schrittweise — Strangler-Fig-Pattern, bei dem das neue System schrittweise Funktionen des alten übernimmt. Jeder Schritt ist deploybar, testbar und rollbackfähig.

Unser 7-Schritte-Playbook: (1) Stabilisierung — Monitoring, Metriken, Baseline. (2) Domain Mapping — Event Storming, Bounded Contexts, Abhängigkeitsanalyse. (3) API Gateway — Fassade vor dem Legacy, Routing-Regeln. (4) Isolation des ersten Moduls — kleinster Bounded Context mit den wenigsten Abhängigkeiten. (5) Datenmigration — CDC (Change Data Capture), Dual-Write, Reconciliation. (6) Schrittweiser Rollout — Canary Releases, Traffic Shifting 5 % → 25 % → 50 % → 100 %. (7) Decommission — altes Modul aus, Monitoring des neuen.

Datenmigration ist der schwierigste Teil. Legacy-Systeme haben Jahre angesammelter technischer Schulden in den Daten — inkonsistente Formate, fehlende Validierung, Duplikate. Wir verwenden CDC (Debezium) für Echtzeit-Replikation, Reconciliation-Jobs für Konsistenzprüfung und einen Rollback-Plan für jeden Schritt.

Risikomanagement: Jeder Modernisierungsschritt hat definierte Erfolgskriterien, Rollback-Plan und Kommunikationsprotokoll. Feature Flags trennen Deploy von Release — der Code ist in Produktion, aber das Feature ist deaktiviert, bis es die Validierung bestanden hat. Wir ändern nie mehr als ein Modul gleichzeitig.

Reale Ergebnisse: Typische Modernisierung dauert 6–18 Monate (abhängig von der Größe). Bringt Mehrwert ab dem ersten Quartal — besseres Monitoring, schnellere Deployments, reduzierte Betriebskosten. TCO sinkt typischerweise um 30–50 % durch Wegfall der Legacy-Wartung.

Modernisierungstrangler-figMigration
Details →

DDD & Microservices

Domain-Driven Design, Bounded Contexts, Event Sourcing und CQRS. Architektur, die technisch und organisatorisch skaliert — Teams arbeiten unabhängig an ihren Domänen.

Microservices ohne DDD sind ein verteilter Monolith. Die Aufteilung von Services nach technischen Schichten (Auth Service, Notification Service) statt nach Domänen führt zu enger Kopplung, verteilten Transaktionen und Deployment-Hölle. DDD definiert Service-Grenzen nach Geschäftsdomänen — jeder Bounded Context hat eine klare Verantwortung.

Event Storming als Discovery-Tool: Bevor wir eine Zeile Code schreiben, machen wir Event Storming mit Domänenexperten. 2–3 Tage Workshops, in denen wir Geschäftsprozesse abbilden, Aggregates, Bounded Contexts und Domain Events identifizieren. Ergebnis: Systemlandkarte, die sowohl Business als auch Technik verstehen.

Event Sourcing & CQRS: Für Domänen, in denen Sie eine vollständige Historie benötigen (Finanzen, Audit, Compliance), verwenden wir Event Sourcing — der Zustand wird aus der Event-Historie berechnet, nicht aus dem letzten Snapshot. CQRS trennt Lesen von Schreiben — Read Model optimiert für Abfragen, Write Model für Geschäftslogik.

Organisatorische Skalierung: Conways Gesetz besagt, dass die Architektur die Organisation kopiert. Mit DDD drehen wir es um — Bounded Contexts definieren die optimale Teamstruktur. Jedes Team besitzt seinen Context, seine Deployment-Pipeline, sein SLO. Team Topologies in der Praxis.

Anti-Patterns, die wir vermeiden: Gemeinsame Datenbank zwischen Services (enge Kopplung). Synchrone Aufrufketten (Kaskadenausfälle). Zu kleine Services (Nano-Services-Overhead). God Service, der alles weiß. Verteilte Transaktionen über 5+ Services.

dddmicroservicescqrs
Details →

Zero-downtime Deployments

Blue-Green, Canary Releases, Feature Flags, Progressive Delivery. Deployment ist ein Nicht-Ereignis — automatisiert, getestet, rollbackfähig. Ihr Team deployt täglich ohne Stress.

Deployment sollte kein Ereignis sein. Wenn Ihr Team ein „Deployment-Fenster” am Sonntagabend hat und alle in Bereitschaft sind, stimmt etwas nicht. Wir bauen Deployment-Pipelines, bei denen Push auf Main Routine ist — automatisiert, getestet, mit sofortigem Rollback.

Blue-Green Deployment: Zwei identische Umgebungen. Neue Version wird auf „Green” deployed, getestet, Traffic wird umgeschaltet. Wenn etwas fehlschlägt, schalten wir in Sekunden auf „Blue” zurück. Kein Downtime, kein Stress. Für Kubernetes verwenden wir Argo Rollouts mit automatischen Health Checks.

Canary Releases: Neue Version bekommt 5 % Traffic. Automatische Metriken (Fehlerrate, Latenz, Business-KPI) entscheiden, ob auf 25 %, 50 %, 100 % fortgefahren wird — oder Rollback. Gesamter Prozess automatisiert, menschliches Eingreifen nur bei Eskalation. Typischerweise 30–60 Minuten vom Push bis zum vollständigen Rollout.

Feature Flags: Trennung von Deploy und Release. Der Code ist in Produktion, aber das Feature ist deaktiviert. Wir schalten schrittweise ein — interne Nutzer → Beta → 10 % → 100 %. A/B-Testing eingebaut. Kill Switch für jedes Feature. LaunchDarkly, Unleash oder maßgeschneiderte Lösung nach Bedarf.

Datenbank-Migrationen: Riskantester Teil des Deployments. Wir verwenden das Expand-Contract-Pattern — zuerst neue Spalte hinzufügen (Expand), dann Daten migrieren, dann alte entfernen (Contract). Keine Breaking Changes, keine Table Locks. Flyway/Liquibase mit automatischen Rollback-Skripten.

deploymentcicdfeature-flags
Details →
Mission-Critical-System

Mission-Critical-System

System, dessen Ausfall den Betrieb direkt stoppt und finanzielle Verluste verursacht. Anders als bei internen Tools, wo ein Ausfall schmerzt, kostet hier jede Minute Ausfallzeit Geld.

Beispiel aus der Praxis: Sortiersystem im Logistik-Hub verarbeitet 10.000 Sendungen/Stunde. 30 Minuten Ausfall = 5.000 unverarbeitete Sendungen, Lieferverzögerungen, SLA-Strafen.
  • Redundanz und automatischer Failover
  • Monitoring mit Alerting (< 2 Min. Erkennung)
  • Runbooks für Incident Response
  • Zero-downtime deployment pipeline
99.95%
Verfügbarkeit (SLA)
<50ms
P95-API-Latenz
10k+ req/s
Throughput
<15 min
MTTR

Jak to děláme

1

Prozessanalyse

Wir kartieren wichtige Geschäftsprozesse und identifizieren Engpässe in bestehenden Systemen.

2

Architekturdesign

Wir definieren den Zielzustand — Module, Integrationen, Datenmodell und Migrationsstrategie.

3

Iterative Entwicklung

Wir liefern in Sprints mit kontinuierlichem Testing und Nutzerfeedback.

4

Migration & Go-Live

Kontrollierter Übergang vom alten System einschließlich Datenmigration und Benutzerschulung.

5

Betrieb & Weiterentwicklung

SLA-basierter Support, Monitoring und kontinuierliche Weiterentwicklung nach sich ändernden Anforderungen.

When You Need Core IS

Core IS pays off where the system directly controls operations and its outage costs real money.

Typical Situations

  1. Outage = revenue loss — System controls real-time operations: sorting lines, payment transactions, customer orders.
  2. Legacy can’t keep up with growth — Current system was supposed to handle 100 operations/s, now there are 10,000.
  3. Integration complexity — Dozens of systems, no governance, every change is a risk.
  4. Regulation and audit — Finance, healthcare, logistics — you need audit trail and compliance.

What We Deliver

Logistics IS & WMS

Receiving, warehousing, picking, shipping. Event-driven architecture with Apache Kafka. Our WMS systems control sorting hubs processing 10,000+ shipments/hour. We integrate with scanners, sorting lines, scales and printers. Edge processing ensures functionality even during connectivity outages.

Transactional Systems

Payment gateways, clearing, accounting cores. ACID guarantees, Saga pattern for distributed transactions, Outbox pattern for event delivery. Automatic failover with RTO < 30s and RPO = 0 for critical systems.

Loyalty Platforms

Loyalty engine, points systems, partner integrations. Real-time points processing at transaction (not nightly batch). Flexible rules engine for marketing campaigns without deployment. Millions of customers, dozens of partners.

Legacy Modernization

7-step playbook: stabilization → measurement → domain mapping → strangler fig → migration → optimization → operations. No big-bang rewrite. Every step brings measurable value and is rollbackable.

Modernization Playbook

We don’t go the big-bang rewrite route. We modernize gradually:

  1. Stabilization and measurement — Monitoring, metrics, baseline. Before you start changing, you need to know where you are.
  2. Domain mapping — Event Storming with domain experts. Bounded contexts, aggregates, domain events. 2-3 days of workshops that save months of wrong decisions.
  3. API gateway — Facade in front of legacy system. New services behind gateway, legacy behind gateway. Routing rules decide who handles request.
  4. First module isolation — Smallest bounded context with fewest dependencies. Strangler fig pattern in practice.
  5. Data migration — CDC (Debezium), dual-write, reconciliation. Riskiest step — therefore most thoroughly tested.
  6. Gradual rollout — Canary releases, traffic shifting 5% → 25% → 50% → 100%. Metrics decide on continuation.
  7. Operations — SRE processes, runbooks, on-call rotation, post-mortem culture.

Decision Matrix: Modernize vs. Rebuild

Factor Modernize (Strangler Fig) Rebuild from Scratch
Risk Low — gradual steps High — big bang
Time to value Months Years
Operational continuity Preserved Dual-run necessary
Costs Gradual, measurable High upfront
When to choose Most cases Only when legacy is unmaintainable

Architectural Principles

Domain-Driven Design — Bounded contexts define service boundaries. Event Storming as discovery tool. Ubiquitous language between business and tech team.

Event-Driven Architecture — Asynchronous communication via Apache Kafka. Event sourcing for domains requiring complete audit trail. CQRS for separating reads and writes.

Resilience Patterns — Circuit breakers (Polly, Resilience4j), retry with exponential backoff, bulkhead isolation, graceful degradation. System works even during partial outage.

Observability from Day 1 — Structured logging, distributed tracing (OpenTelemetry), business metrics. Alerting on SLO/SLI, not technical metrics. Runbooks for top 10 incidents.

Technology Stack

Layer Technologies
Backend C#/.NET 8, Python, Go
Database PostgreSQL, SQL Server, Redis, MongoDB
Messaging Apache Kafka, RabbitMQ
Orchestration Kubernetes (AKS/EKS), Docker
CI/CD GitHub Actions, GitLab CI, ArgoCD
Monitoring Grafana, Prometheus, Jaeger, ELK
Cloud Azure, AWS (multi-cloud ready)

Häufig gestellte Fragen

Die meisten Projekte bauen wir auf bestehenden Grundlagen auf. Unser Modernisierungs-Playbook ist für schrittweise Migration konzipiert — Strangler-Fig-Pattern, ohne Big-Bang-Rewrite.

Blue-Green- und Canary-Deployments, automatisierte Tests, Feature Flags. Jeder Release durchläuft eine Staging-Umgebung mit produktionsnahen Daten.

C#/.NET, Python, PostgreSQL, SQL Server, Redis, RabbitMQ/Kafka, Docker, Kubernetes, Azure, AWS. Architekturmuster: DDD, Event-driven, CQRS, Microservices.

Abhängig vom Umfang. Typischerweise: Discovery (2–4 Wochen) → MVP (3–6 Monate) → Produktion. Preis ab 2 Mio. CZK für mittelkomplexe Systeme.

Mehrschichtiger Ansatz: redundante Infrastruktur (Multi-AZ), automatischer Failover (RTO < 30s), Health Checks, Circuit Breaker, Graceful Degradation. Regelmäßige Chaos-Engineering-Tests überprüfen, dass der Failover tatsächlich funktioniert.

Ja. Multi-Tenant-Architektur mit Per-Tenant-Konfiguration, Multi-Currency, Zeitzonen-Handling, Lokalisierung. Gemeinsame Codebasis, isolierte Daten. Typischerweise für Retail und Logistik im CEE-Raum.

Haben Sie ein Projekt?

Lassen Sie uns darüber sprechen.

Termin vereinbaren