Dieser Beitrag erschien zuerst als Blogbeitrag bei FIN LAW.
In vergangenen Beiträgen wurde das Thema künstliche Intelligenz (KI) bzw. maschinelles Lernen (ML) im Wertpapierhandel und in der Vermögensverwaltung besprochen. Künstliche Intelligenz kann aber auch im Risikomanagement der Bank eingesetzt werden. Das Gesetz verpflichtet beispielsweise Banken ein angemessenes und wirkungsvolles Risikomanagement zu etablieren, durch welches die Risikotragfähigkeit laufend sichergestellt wird. Dabei geht es im Wesentlichen darum, Markt-, Kredit-, Insolvenz- oder Betrugsrisiken im Zusammenhang beispielsweise mit Handelsentscheidungen oder Kreditvergaben zu identifizieren und diese Risiken zu minimieren. Gerade hier kann KI oder ML dabei helfen, neue Muster zu erkennen und hierdurch zur Risikominimierung beitragen. Die Finanzaufsicht billigt jedoch nicht einzelne Algorithmen. Sie prüft vielmehr die einzelnen Prozesse risikoorientiert und anlassbezogen in ihrer konkreten Anwendung im Einzelfall. Die BaFin hat jedoch beim Einsatz von KI übergeordnete Prinzipien festgelegt, welche von den Finanzinstituten berücksichtigt werden müssen.
Die Geschäftsleitung bleibt verantwortlich für künstliche Intelligenz und deren Einsatz
Unabhängig davon, wie anspruchsvoll die künstliche Intelligenz ist, so bleibt die Geschäftsführung letztverantwortlich für den Einsatz von KI. Dies bedeutet unter anderem, dass ein adäquat technisches Verständnis bei der Geschäftsleitung gegeben sein muss. Wenn algorithmenbasierte Entscheidungen getroffen werden, dann muss auch das Risikomanagement an diese Umstände angepasst werden. Dies bedeutet unter anderem, dass die Wahrscheinlichkeit des Eintritts von Schäden durch fehlerhafte Entscheidungen des Algorithmus analysiert und die Ergebnisse dokumentiert werden. Entsprechendes gilt auch für das Ausmaß der potenziellen Schäden. Es soll ferner ein übergeordnetes Rahmenwerk aufgesetzt werden, welches spezifisch auf die algorithmenbasierten Entscheidungsprozesse eingeht und deren wechselseitige Abhängigkeit berücksichtigt. Werden Anwendungen von Externen bezogen, so hat die Geschäftsleitung auch dafür Verantwortung zu tragen, dass ein effektives Ausgliederungsmanagement etabliert wird.
Es darf kein Bias erzeugt werden und gesetzliche Vorgaben sind einzuhalten
Beim Einsatz von KI muss die systematische Verzerrung von Ergebnissen (Bias) vermieden werden. Unternehmerische Entscheidungen dürfen nicht auf einem Bias beruhen. Dadurch soll auch das Risiko einer Reputationsschädigung entfallen, wenn etwa aufgrund der Verzerrung einzelne Kundengruppen benachteiligt werden. Die Unternehmen sind daher angehalten, Daten in ausreichender Qualität und Quantität zu verwenden. In der Entwicklungsphase haben Finanzinstitute daher beispielsweise eine Datenstrategie zu entwickeln, welche die dauerhafte Datenbereitstellung gewährleistet. Dabei müssen die aktuellen Datenschutzregeln beachtet werden. Damit die Algorithmen und Modelle sowohl intern als auch extern überprüft werden können, besteht eine Dokumentationspflicht für die Finanzinstitute.