Zum Inhalt springen
iSAQB-blog-article-gharbi-blattner

Archi­tektur für KI-Systeme

Ein Praxisbericht aus dem Finanzbereich von Mahbouba Gharbi und Dimitri Blatner

Mit dem Aufkommen daten­ge­trie­bener Modelle sind KI-Kompo­nenten längst fester Bestandteil produk­tiver IT-Systeme. Doch wie geht man archi­tek­to­nisch mit Systemen um, die autonome Entschei­dungen treffen? Ein Kunden­projekt zur Analyse und Prognose von Finanz­daten zeigt, welche Heraus­for­de­rungen dabei entstehen – und welche Lösungen sich bewährt haben.

Ausgangs­si­tuation und Zielsetzung

Im Projekt entwi­ckelten wir eine Software zur automa­ti­sierten Bewertung von Finanz­daten. Ziel war ein System, das histo­rische und aktuelle Kursdaten analy­siert, Muster erkennt und daraus Prognosen ableitet – etwa die Wahrschein­lichkeit eines Kursan­stiegs um mehr als fünf Prozent. Dazu konzi­pierten wir ein Zeitrei­hen­modell inklusive Daten­stra­tegie, Feature-Engineering und Modell­ar­chi­tektur. Für Klassi­fi­ka­ti­ons­auf­gaben kamen zusätz­liche Modelle zum Einsatz, insbe­sondere bei ungleichen/unausgewogenen Klassenverteilungen.

Die Integration in die bestehende IT-Landschaft stellte eine Heraus­for­derung dar: Das Modell sollte leistungs­fähig, skalierbar und nachvoll­ziehbar sein. Zwar lieferte es präzise Vorher­sagen, doch waren die Entschei­dungs­pro­zesse für Fachab­tei­lungen zunächst schwer nachzu­voll­ziehen – Rückver­folg­barkeit war gefragt.

Trans­parenz durch Rückver­folg­barkeit und Monitoring

Ein zentrales Ziel war es, Entschei­dungswege des Modells trans­parent zu machen. Ein Reporting-Tool zeigte auf, welche Merkmale für eine Vorhersage maßgeblich verant­wortlich waren. Der Fokus lag auf der Identi­fi­kation relevanter Einfluss­fak­toren, der Quanti­fi­zierung von Unsicher­heiten und der Auswahl geeig­neter Interpretationsverfahren.

Vertrau­ens­me­triken: Unsicher­heiten quanti­fi­zieren & Entschei­dungen fundieren

Zur Verbesserung von Erklär­barkeit und Akzeptanz wurden Verfahren zur lokalen Modell­in­ter­pre­tation evaluiert. Besonders das SHAP-Verfahren (SHapley Additive exPlana­tions) erwies sich als geeignet. Durch Tree SHAP für Ensemble-Modelle erzielten wir eine gute Balance zwischen Erklär­qua­lität und Laufzeit. Unter bestimmten Bedin­gungen konnte z. B. der gleitende Durch­schnitt der letzten 30 Tage als dominanter Einfluss­faktor identi­fi­ziert werden.

Vertrau­ens­me­triken quanti­fi­zierten die Unsicherheit von Modell­vor­her­sagen, ohne die System­per­for­mance zu beein­träch­tigen. Sie basierten auf Konfi­denz­in­ter­vallen und Wahrschein­lich­keits­ver­tei­lungen. Eine Prognose von +10 %, bei tatsäch­lichem Anstieg von nur 5 %, wurde als unsicher markiert.

Heatmaps visua­li­sierten diese Metriken: Farbco­dierte Darstel­lungen hoben kritische Daten­punkte hervor, Unsicher­heiten wurden auf einen Blick sichtbar. Fachab­tei­lungen konnten so auf risiko­be­haftete Vorher­sagen gezielt reagieren.

Abbildung 1 - Heatmap

Abbildung 1: Heatmap

 

Monitoring-System: Überwa­chung und Anomalie-Erkennung

Ein mehrstu­figes Monitoring-System sicherte die Verläss­lichkeit und Funkti­ons­fä­higkeit des Modells im laufenden Betrieb:

  • Drift Detection: Daten­ver­schie­bungen erkennen (z. B. durch Zinser­hö­hungen, politische Ereignisse)
  • Perfor­mance Monitoring: Bewertung von Kennzahlen wie Genau­igkeit, Latenz, F1-Score – Dashboard mit Echtzeitüberwachung
  • Fehler­analyse: Sammlung und Analyse kriti­scher Entschei­dungen zur Modelloptimierung

 

Abbildung 2: Technische Qualitätsmetriken

Entschei­dungen wurden als kritisch einge­stuft, wenn sie deutlich vom tatsäch­lichen Ergebnis abwichen oder der F1-Score <0,75 lag. Ein Analy­setool sammelte Daten­punkte, um Modelle gezielt weiter­zu­ent­wi­ckeln. Zusätzlich kamen AUC-Werte sowie der Brier-Score zur Kalibrierung zum Einsatz. Eine Konfu­si­ons­matrix unter­stützte die Fehler­ein­ordnung. Ergänzend wurden geschäfts­re­le­vante Metriken wie Treffer­quote bei Kursan­stiegen >5 %, erwar­teter Gewinn pro Trade, Sharpe Ratio sowie maximaler Drawdown einbe­zogen. Die Verbindung aus techni­scher und wirtschaft­licher Analyse ermög­lichte eine fundierte Bewertung der Modellgüte.

Abbildung 3: Geschäfts­re­le­vante Bewertungsgrößen

 

Anony­mi­sierung und Schutz der Eingangsdaten

Die Verar­beitung sensibler Finanz­daten erfor­derte strikte Maßnahmen. Die Daten­pipeline anony­mi­sierte Namen und Konto­daten und nutzte verschiedene Verfahren wie Genera­li­sierung, Pseud­ony­mi­sierung sowie Verschlüs­selung. Diffe­rential Privacy minimierte Reiden­ti­fi­ka­ti­ons­ri­siken und unter­stützte die Einhaltung regula­to­ri­scher Anforderungen.

Technische Umsetzung: Modell­ver­sio­nierung und Rückfallebene

Ein wichtiger Baustein war die Modell­ver­sio­nierung: Im Unter­schied zur klassi­schen Software­ver­sio­nierung dokumen­tierten wir zusätzlich Trainings­daten, Hyper­pa­ra­meter und Evalua­ti­ons­me­triken. Ein Modell­re­gister speicherte sämtliche Versionen inklusive der jeweils verwen­deten Metadaten und Hyper­pa­ra­meter. Bei Fehlern griff eine Rückfal­l­ebene mit einfachen, regel­ba­sierten Berech­nungen, um kritische Entschei­dungen abzusichern.

 

Abbildung 4: Schema der techni­schen Umsetzung


Lessons Learned: Archi­tektur als Verantwortung

Die Integration von KI erfordert voraus­schauende Planung, Teamkom­mu­ni­kation und Disziplin. Zielde­fi­nition, Daten­stra­tegie und System­ar­chi­tektur müssen frühzeitig aufein­ander abgestimmt sein. Unser Projekt zeigte: Daten­schutz, Rückver­folg­barkeit, Vertrau­ens­me­triken und Fehler­ana­lysen entscheiden über Akzeptanz und Zuver­läs­sigkeit. KI ist kein Selbst­zweck – erst im Zusam­men­spiel mit fundierter Archi­tektur, inter­dis­zi­pli­närer Zusam­men­arbeit und konti­nu­ier­licher Quali­täts­si­cherung entsteht ein robustes, verant­wort­bares System.

KI-Archi­tektur heißt: gestalten, erklären, absichern – und laufend nachjustieren.

 


Über die Autoren:

Mahbouba Gharbi ist Geschäfts­füh­rerin, Software­ar­chi­tektin und Trainerin bei ITech Progress GmbH, einem akkre­di­tierten Schulungs­an­bieter des iSAQB®, mit über zwanzig Jahren Erfahrung. Als Kuratorin des iSAQB-Moduls SWARC4AI vermittelt Mahbouba metho­dische und technische Konzepte für den Entwurf und die Entwicklung skalier­barer KI-Systeme an IT-Profes­sionals und legt dabei beson­deren Wert auf praxisnahe und nachhaltige Lösungen.

Dimitri Blatner ist Software­ar­chitekt und Trainer bei ITech Progress GmbH. Als zerti­fi­zierter Trainer für SWARC4AI vermittelt Dimitri praxis­nahes Wissen für den Entwurf und die Entwicklung skalier­barer KI-Systeme. Dimitris Schwer­punkte liegen auf Cloud-Techno­logien, DevSecOps, hybriden Archi­tek­turen und KI­Lösungen und er unter­stützt Unter­nehmen bei der Reali­sierung innova­tiver und sicherer Systeme.

Teilen Sie diesen Artikel:

Zum Thema passende Artikel

Bleiben Sie informiert mit dem iSAQB®-Newsletter!

Nach oben scrollen