Nagler & Company: Expertise

Mehr Sicherheit, Transparenz und Know-How: Warum Referenzmodelle für KI-Anwendungen in der Finanzindustrie unverzichtbar sind

von Dr. Johannes Raab und Thomas Gebhard


Künstliche Intelligenz (KI) etabliert sich immer mehr als fester Bestandteil moderner Finanzsoftware. Doch gerade bei zugekauften Lösungen, deren KI-Modelle vom Hersteller trainiert und bereitgestellt werden, stehen Banken und Finanzdienstleister vor einer zentralen Herausforderung: Wie lässt sich die Funktionsweise dieser Modelle nachvollziehen, validieren und regulatorisch absichern? Der Aufbau eines eigenen Referenzmodells kann hier entscheidende Vorteile bieten – und vor Risiken schützen.


Ausgangslage: „Black Box“ durch Hersteller-KI

Institute setzen neben klassischer Software zunehmend auch auf KI-basierte Softwarelösungen, beispielsweise im Rahmen von Compliance-Prozessen, beim Transaktionsmonitoring oder auch der Portfolioanalyse. Die zugrundeliegenden Modelle werden meist vom Hersteller trainiert und anschließend bereitgestellt. Die Problematik (trotz der Einhaltung strenger Compliance- und Datenschutzrichtlinien oder Prinzipien „verantwortungsvoller KI“): Trainingsdaten, Feature-Auswahl, Modellparameter und Details zu Entscheidungswegen bleiben trotz Herstellerdokumentation für das Institut oft weitgehend intransparent. Die Folge kann eine eingeschränkte Steuerungsund Kontrollmöglichkeit sein – mit direkten Auswirkungen auf Governance, Validierung und regulatorische Compliance.

Regulatorische Anforderungen: Was Aufsichtsgremien fordern

Aufsichtsgremien wie EZB, EBA und BaFin haben in den letzten Jahren ihre Anforderungen an KI- und Machine-Learning- Modelle in Banken deutlich verschärft:

  • Transparenz und Erklärbarkeit: Banken müssen sicherstellen, dass ihre KI-Modelle nachvollziehbar und erklärbar sind. Die EZB fordert, dass die Komplexität von Machine-Learning- Modellen durch deren Leistungsfähigkeit gerechtfertigt sein muss und empfiehlt indirekt den Einsatz von Explainable AI (XAI). 1 2
  • Regelmäßige Validierung: Modelle müssen regelmäßig validiert und auf ihre Leistung überprüft werden. Die EBA empfiehlt den Einsatz von Challenger-Modellen zur unabhängigen Validierung und zur Überprüfung der Modellrobustheit - ein Ansatz, der auch auf KI-Modelle selbst übertragbar ist. 3
  • Governance und Modellrisiko: Die BaFin betont in ihrem Prinzipienpapier, dass Banken die Kontrolle über KI-Modelle behalten und Modellrisiken aktiv steuern müssen. Dazu gehört auch die Fähigkeit, Modelländerungen und -drifts frühzeitig zu erkennen. 4 5
  • Benchmarking und Backtesting: Nicht zuletzt sind zentrale Anforderungen an interne Modelle auch auf KI-Modelle übertragbar, beispielsweise die Durchführung von Benchmarking und Backtesting zur Gewährleistung von Zuverlässigkeit und Robustheit der Modelle. 1

Beweggründe für ein eigenes Referenzmodell

Der Aufbau eines institutseigenen KI-Referenzmodells kann hier Abhilfe schaffen und insbesondere die Erfüllung der oben dargelegten regulatorischen Anforderungen unterstützen. Zudem können dadurch Synergieeffekte entstehen, die Vorteile für den jeweiligen Bereich insgesamt darstellen:

1 Regulatorische Anforderungen erfüllen

Ein tieferes Verständnis des eingesetzten KI-Modells ist regulatorisch geboten. Dabei ermöglicht ein eigenes Referenzmodell eine unabhängige Dokumentation und Nachweisführung gegenüber internen und externen Prüfern (z. B. Revision, Aufsicht, Wirtschaftsprüfer). Des Weiteren werden umfassende Sensitivitätsanalysen und gezielte Modelltests erst durch ein eigenes Modell möglich.

2 Governance und Kontrolle stärken

Institute gewinnen die Kontrolle über Modellparameter, Annahmen und Updates. Durch Variation von Parametern können gezielt Schwachstellen, Modellrisiken und Abhängigkeiten identifiziert werden. Die Anpassung an neue regulatorische Anforderungen wird flexibler und schneller möglich.

3 Validierung und Vergleichbarkeit sicherstellen

Ein Referenzmodell dient als Benchmark für das Herstellermodell: Abweichungen werden sichtbar, Ursachen können gezielt analysiert werden. Dabei erhöhen Backtesting und Benchmarking die Modellrobustheit und das Risiko von Modellfehlern kann reduziert werden. Die Validierung des Modells kann zudem unabhängig und nachvollziehbar dokumentiert werden.

4 Verständnis und Transparenz erhöhen

Der Einsatz von Explainable AI im Referenzmodell ermöglicht die Nachvollziehbarkeit von Entscheidungswegen – ein zentraler Aspekt für die Akzeptanz bei internen und externen Stakeholdern. Weiterhin liegen die Schritte der Aufbereitung von Trainingsdaten und die Feature-Selektion in der eigenen Hand. Dadurch werden Modell-Klassifizierungen und -entscheidungen transparent sowie auditierbar.

5 Anpassbarkeit und Erweiterbarkeit nutzen

Das Referenzmodell kann flexibel an neue Anforderungen angepasst und regelmäßig nachtrainiert werden. Es dient als Benchmark für die Evaluation alternativer KI-Modelle und fördert Innovation und Weiterentwicklung.

Risiken beim Verzicht auf ein Referenzmodell

Der Verzicht auf den Aufbau eines Referenzmodells sollte gut überlegt sein, um die damit einhergehenden Risiken umfassend abwägen zu können und eine fundierte Entscheidungsbasis zugrunde zu legen.

  • Mangelnde Nachweisfähigkeit: Die Vollständigkeit und Aktualität der Modell-Dokumentation liegt allein beim Hersteller. Ohne unabhängige Validierung und Dokumentation drohen Beanstandungen durch Aufsicht und Wirtschaftsprüfer.
  • Eingeschränkte Governance: Die Kontrolle über Modellparameter und -updates bleibt beim Hersteller. Die Durchführung von Anpassungen an neue regulatorische Vorgaben oder das Nachtrainieren von Modellen sind nur verzögert möglich.
  • Erhöhtes Modellrisiko: Vergleichswerte für die Modellergebnisse können nicht produziert werden und fehlen somit. Potenzielle Fehler oder Bias im Herstellermodell werden nicht erkannt.
  • Intransparenz: Die Entscheidungswege der KI bleiben eine „Black Box“. Das erschwert die Akzeptanz und mindert das Vertrauen von Stakeholdern.
  • Fehlende Flexibilität: Die Durchführung von Sensitivitätsanalysen ist nur mit Unterstützung des Herstellers möglich. Neue Anforderungen (z.B. geänderte Inputdaten) können nicht zeitnah umgesetzt werden.

Fazit und Ausblick

Der Aufbau eines eigenen KI-Referenzmodells ist kein Selbstzweck, sondern ein zentraler Baustein für eine robuste, nachvollziehbare und regulatorisch einwandfreie KI-Governance in der Finanzindustrie. Institute, die frühzeitig in eigene Referenzmodelle investieren, sichern sich nicht nur regulatorische Konformität, sondern auch einen strategischen Vorteil: Sie behalten die Kontrolle über ihre KI-Anwendungen, können Innovationen gezielt vorantreiben und minimieren gleichzeitig die Risiken von „Black Box“-Modellen.

Sie möchten mehr erfahren oder stehen vor der Herausforderung, ein eigenes Referenzmodell zu etablieren? Sprechen Sie uns gerne an – wir unterstützen Sie mit Erfahrung, Methodik und technischer Expertise.
 


Quellen

1EZB (2025): Pressemitteilung: EZB veröffentlicht überarbeiteten Leitfaden zu internen Modellen, Europäische Zentralbank, 28.07.2025.
2 ECB (2025): ECB guide to internal models, European Central Bank, 28.07.2025.
3 EBA (2023): Machine Learning for IRB Models: Follow-up report from the consultation on the discussion paper on machine learning for IRB models, EBA/REP/2023/28, European Banking Authority, August 2023.
4 BaFin (2021): Big Data und künstliche Intelligenz: Neues Prinzipienpapier der BaFin, Bundesanstalt für Finanzdienstleistungsaufsicht, 15.06.2021.
5 BaFin (2022): Maschinelles Lernen in Risikomodellen, Bundesanstalt für Finanzdienstleistungsaufsicht, 18.02.2022.

Dr. Johannes Raab Nagler & Company
Ihr
Ansprechpartner

Dr. Johannes Raab

Standort Schnaittenbach

+49 151 10 83 72 34

E-Mail
Thomas Gebhard Nagler & Company
Ihr
Ansprechpartner

Thomas Gebhard

Standort Graz

+43 676 58 68 08 9

E-Mail

Expertise