Messdatenplattform
Hydronic Group · Heizungskraft Technik
Architektur · Infrastruktur · Normen

Wie die Plattform gebaut ist

Kurzer Überblick über die Systemkomponenten, den Datenfluss vom Anhänger bis zum Kundenreport, das Datenmodell und die Normen-Compliance. Die Demo läuft lokal als Docker-Compose-Setup; die Produktionsarchitektur ergänzt Traefik, Authentik und optional K3s.

1. Systemübersicht — Datenfluss

2. Stack-Matrix

Begründungen pro Komponente (ADR-Light). Vollständige ADRs in DECISIONS.md.

SchichtKomponenteVersionBegründungAlternative
EdgeTelegraf + Store-and-Forward1.33Industrie-Standard für Sensor-Agenten, robust bei FunkausfallCustom Python auf Revolution Pi
TransportEMQX5.8MQTT-Broker mit TLS + mTLS, horizontal skalierbar, Audit-LogMosquitto (einfacher, ohne Clustering)
Speicher — ZeitreihenTimescaleDB2.17 / PG16PostgreSQL-nativ, Hypertables + Continuous Aggregates, SQL statt FluxspracheInfluxDB 2.x (reiner TSDB, zweite Datenbank nötig)
Speicher — ObjekteMinIO2024-10S3-kompatibler Rohdaten-Archiv, FZulG-Nachweise als WORMAWS S3 / Ceph
OrchestrierungDagster1.9Asset-orientiert, materialisierte Dependencies, leichte Integration mit dbtPrefect, Airflow
Transformationdbt-core1.9Testbar, versioniert, dokumentiert — wichtig für FZulG-NachweisführungSQLMesh, reine SQL-Views
APIFastAPI0.115OpenAPI-Spec out-of-the-box, Pydantic-Validierung, asyncGo + chi / Rust + axum
FrontendNext.js App Router15 / React 19SSR + Server-Components, mobile-tauglich, schnelle SeitenwechselSvelteKit, Remix
DashboardsGrafana11.3Standard für Technik-Dashboards, PostgreSQL-Datasource nativSuperset, Metabase
Reverse ProxyTraefik2.11Auto-TLS, Docker-Labels, geringe Config-KomplexitätCaddy, nginx-proxy
ObservabilityPrometheus + Loki + GrafanaDatenqualitätsmetriken als first-class Signale, nicht nur Infra-MetrikenVector + ClickHouse

3. Datenmodell

Stammdaten (blau) und Zeitreihen (grün) sind zwei Postgres-Schemas in derselben Datenbank — ein SQL-Abfrage-Layer, keine Cross-Datenbank-Joins. Events und Datenqualität-Flags leben im Analytics-Schema.

4. Normen & Compliance

ReferenzAnwendungsbereichWie die Plattform das abbildet
DIN EN 12831 (Verfahren B)Hydraulischer Abgleich nach MessungKampagne hinterlegt Vorher/Nachher-Spreizung; Event `hydraulic_balance` mit Kennzahlenvergleich.
VDI 2035Wasserqualität / SteinbildungLeitfähigkeits- und Härte-Sensorwerte als optionaler Kanal im Schema.
GEG § 60c / § 71Hydraulischer Abgleich, JAZ-NachweisReporting-Datenschicht liefert JAZ über Heizperiode aus TimescaleDB-CAGG.
VdZ-FachregelDurchführung hydraulischer AbgleichSensor-Kalibrier-Logs als Stammdaten, Techniker-Protokoll als Event.
GUM / DIN ISO 98-3MessunsicherheitPro Sensor `uncertainty_pct` erfasst, Fortpflanzung bei COP via symbolischer Berechnung.
DSGVOPersonenbezogene Gebäude-/NutzerdatenPII (Name, Adresse, Kontakt) in getrenntem Schema, Zugriff per Row-Level-Security; Löschkonzept auf Kampagnen-Ebene.
FZulG / BSFZFuE-NachweisführungRohdaten als WORM-Objekt in MinIO, Dagster-Run-Logs als Audit-Trail, dbt-Modelle versioniert in Git.

5. Messunsicherheit & Datenqualität

  • Kalibrierung pro Sensor: Offset + Steigung je Sensor in core.sensors; automatische Anwendung in der Ingest-Pipeline.
  • Messunsicherheit: uncertainty_pct als GUM-konforme relative Unsicherheit; bei abgeleiteten Größen (COP, JAZ) Fortpflanzung nach Gauß'scher Quadratur.
  • Plausibilität: Regel-Engine prüft Wertebereich, Gradient (Spike-Erkennung) und Stale-Zustände. Cross-Channel-Check Energiebilanz Q = ṁ·c_p·ΔT gegen Wärmemengenzähler.
  • Drift-Erkennung: Gleitender Vergleich Energiebilanz vs. thermischer Zähler; schleichende Abweichungen > 2 % werden als drift-Event annotiert.
  • Ausfall-Strategien: Lücken < 15 min per Forward-Fill (markiert); größere Lücken bleiben als Qualitäts-Flag sichtbar und fließen nicht in Rollups ein.

6. KI-Roadmap

  1. Anomalie-Erkennung — IsolationForest-Baseline auf Residuen (gemessen vs. Modell), bereits in Demo als ML-Event sichtbar.
  2. Heizlast-Forecasting — gradient-boosted Trees (LightGBM) oder LSTM auf 24-h-Horizont, Inputs: Außentemperatur, Solarstrahlung, Belegungsmuster.
  3. Portfolio-Clustering — unsupervised Clustering von Gebäudetypen auf Basis von Heizkurve, spezifischer Verbrauch, Spreizungsverhalten → Empfehlungslogik für Sanierungspfade.
  4. Hybrid-Optimierung — MILP oder Reinforcement Learning: optimaler Umschaltpunkt Gas/WP unter Primärenergie-, CO₂- und Kostenzielfunktion.

7. Deployment-Optionen

  • Single-Node (Demo)
    Docker Compose, eine VM, Traefik-TLS. Für Pilot-Kunden oder geschlossene Messkampagnen.
  • Hybrid Edge + Cloud
    Anhänger betreibt lokales TimescaleDB-Replikat (30 Tage Retention), MQTT-Bridge synchronisiert in die Cloud. Offline-tolerant.
  • Multi-Tenant (K3s)
    Pro Kunde ein Schema, gemeinsame Infrastruktur. Authentik als SSO, Row-Level-Security auf Postgres-Ebene.