ZERONE
Zurück zu Projekten
Quant · ML · Crypto · 2026

Case 05 — ML-Signal­system für Crypto-Futures

Production-reifes LSTM-Signal­system: 77.179 Training-Samples, 79 Features, 50 selektiert. Confidence-Threshold-Inference — nicht jedes Signal wird getradet, nur die oberen 35 %.

77 kTraining-Samples
79→50Features (selektiert)
56–58 %Win-Rate (gefiltert)
24 kModell-Parameter

Die Herausforderung

Ein Quant-Trader brauchte ein ML-System, das auf Präzision statt Quantität kalibriert ist: viele Signale, von denen nur die konfidentesten ausgeführt werden. Anforderungen: sauberes Feature-Engineering, LSTM-Training mit Validation-Gap-Kontrolle, Confidence-Scoring, nachvollziehbare Backtests.

Architektur

Eine Feature-Engineering-Pipeline erzeugt aus OHLCV-Daten 79 Kandidaten-Features, Feature-Selection reduziert auf die 50 aussagekräftigsten. Ein LSTM-Modell mit 24.962 Parametern klassifiziert. Die Smart-Inference-Schicht filtert Signale unterhalb des Confidence-Thresholds heraus. Backtesting- und Live-Engine teilen sich dieselbe Inference-Logik.

OHLCV-Ingestor · Exchange-APIsINGORCHESTRATORFeature-Engineering (79 → 50)FEWORKERLSTM-Training · Balanced-SamplingTRWORKERSmart-Inference · Confidence-FilterINFWORKERBacktesting-Engine · Strategy-ReplayBTWORKERExecution · Position-ManagementEXWORKERModel-Store · Metrics · RunsDBPRIMARY
INGOHLCV-Ingestor · Exchange-APIs
FEFeature-Engineering (79 → 50)
TRLSTM-Training · Balanced-Sampling
INFSmart-Inference · Confidence-Filter
BTBacktesting-Engine · Strategy-Replay
EXExecution · Position-Management
DBModel-Store · Metrics · Runs

Pipeline

Trainings- und Inference-Lebenszyklus

  1. 01Feature-Engineering aus 5 Märkten und mehreren Timeframes
  2. 02Balanced-Training mit Validation-Gap-Monitoring (≤ 15 %)
  3. 03Feature-Selection-Pass liefert +0,5 – 1 % Uplift
  4. 04Confidence-Schwelle 0,65 → Top-35 %-Signale werden gehandelt
  5. 05Backtesting-Replay vor jedem Live-Rollout

Technologie-Stack

Python 3.11+PyTorch (LSTM)NumPy · Pandas · scikit-learnFeature-Engineering-PipelineConfidence-ScoringBacktesting-FrameworkExchange-APIs (Binance, Bybit)PostgreSQLpytestDocker

Ergebnis

Validation-Accuracy 53 %, Win-Rate nach Confidence-Filter 56–58 %. Train/Val-Gap unter 14 % — Modell generalisiert. Production-Inference-Pipeline liefert Signale deterministisch: gleiche Features → gleiche Entscheidung. Kein Black-Box-Overselling, jedes Signal erklärbar über Feature-Importances.

Ähnliches Vorhaben?

Sprich mit uns — wir hören zu, bevor wir liefern.

Projekt anfragen