Case 05 — ML-Signalsystem für Crypto-Futures
Production-reifes LSTM-Signalsystem: 77.179 Training-Samples, 79 Features, 50 selektiert. Confidence-Threshold-Inference — nicht jedes Signal wird getradet, nur die oberen 35 %.
Die Herausforderung
Ein Quant-Trader brauchte ein ML-System, das auf Präzision statt Quantität kalibriert ist: viele Signale, von denen nur die konfidentesten ausgeführt werden. Anforderungen: sauberes Feature-Engineering, LSTM-Training mit Validation-Gap-Kontrolle, Confidence-Scoring, nachvollziehbare Backtests.
Architektur
Eine Feature-Engineering-Pipeline erzeugt aus OHLCV-Daten 79 Kandidaten-Features, Feature-Selection reduziert auf die 50 aussagekräftigsten. Ein LSTM-Modell mit 24.962 Parametern klassifiziert. Die Smart-Inference-Schicht filtert Signale unterhalb des Confidence-Thresholds heraus. Backtesting- und Live-Engine teilen sich dieselbe Inference-Logik.
Pipeline
Trainings- und Inference-Lebenszyklus
- 01Feature-Engineering aus 5 Märkten und mehreren Timeframes
- 02Balanced-Training mit Validation-Gap-Monitoring (≤ 15 %)
- 03Feature-Selection-Pass liefert +0,5 – 1 % Uplift
- 04Confidence-Schwelle 0,65 → Top-35 %-Signale werden gehandelt
- 05Backtesting-Replay vor jedem Live-Rollout
Technologie-Stack
Ergebnis
Validation-Accuracy 53 %, Win-Rate nach Confidence-Filter 56–58 %. Train/Val-Gap unter 14 % — Modell generalisiert. Production-Inference-Pipeline liefert Signale deterministisch: gleiche Features → gleiche Entscheidung. Kein Black-Box-Overselling, jedes Signal erklärbar über Feature-Importances.