Die Entwicklung schreitet rasant voran: So gut wie alle Unternehmen der Versicherungsbranche nutzen mittlerweile Künstliche Intelligenz (KI), beispielsweise um Prozesse zu beschleunigen und Kosten zu senken. Neben den klaren Vorteilen der Technologie müssten die Versicherer jedoch auch die Risiken im Blick behalten, forderte die BaFin-Versicherungsaufseherin Julia Wiens kürzlich in Fachvorträgen an den Universitäten Leipzig und Düsseldorf.
Risiko der Diskriminierung durch automatisierte Entscheidungen
So könnten etwa hochgradig automatisierte Entscheidungsprozesse bestehende Diskriminierungsrisiken verstärken und für einige Menschen den Zugang zu Finanzprodukten und -dienstleistungen erschweren oder gar unmöglich machen. „Solche Diskriminierung müssen Finanzdienstleister vermeiden“, stellte Wiens klar.
Eine ganz wichtige Rolle spielten hier zum Beispiel die Datensätze, die Unternehmen für das Training ihrer Systeme nutzten. „Wenn diese Datensätze etwa bestimmte Kundengruppen nicht enthalten, kann das ungewollt zu Diskriminierung führen“, so Wiens.
Falschinformationen durch Halluzinationen
Bei generativer Künstlicher Intelligenz, also bei KI, die neue Inhalte erzeugen kann, bestehe darüber hinaus das Risiko, dass die Modelle anfingen zu „halluzinieren“ – dass sie also Falschinformationen herausgeben, die fachfremde Nutzerinnen und Nutzer für wahr halten. „Und weil Versicherer diese Modelle aufgrund ihrer Komplexität häufig nur noch von externen Anbietern beziehen, entstehen Abhängigkeiten. Und gegebenenfalls auch Know-how-Defizite.“
Warnung vor Grundrechtsbedrohung
Die Chef-Versicherungsaufseherin der BaFin warnt auch vor KI-Anwendungen, von denen sogar eine Bedrohung der Grundrechte ausgehen könne, wie etwa Social-Scoring-Systeme, die das Verhalten von Menschen bewerten. Solche Praktiken seien bei uns zum Glück verboten. Daneben gebe es aber auch noch Hochrisiko-KI-Systeme.
Im Versicherungssektor können solche Systeme zum Beispiel für die Risikobewertung und Preisbildung für Lebens- und Krankenversicherungen verwendet werden. „Für diese Systeme gelten umfangreiche Anforderungen, etwa im Hinblick auf Transparenz, Datenqualität, menschliche Aufsicht und Risikomanagement“, betont Wiens.
Notwendigkeit einer adäquaten Governance
Angesichts all dieser Risiken sei es wichtig, dass Versicherer, die KI einsetzten, über eine adäquate Governance verfügten. „Diese Governance muss alle aufsichtlich relevanten Risiken erfassen“, so Wiens. Das sei keine triviale Aufgabe, denn zu einer solchen Governance gehöre es unter anderem auch, regelmäßig zu prüfen, ob die Ergebnisse der Systeme nachvollziehbar seien und ob das Modellverhalten erklärt werden könne. „Diese Fragen sind bei generativer Künstlicher Intelligenz gar nicht so einfach zu beantworten“, weiß die Exekutivdirektorin.
BaFin arbeitet an europäischen Mindestanforderungen
Die BaFin arbeite daher auf europäischer Ebene an aufsichtlichen Mindestanforderungen an einer solchen Governance mit. „Wir wollen ja auch, dass die Branche innovativ bleibt und sich weiterentwickelt, im Sinne besserer Produkte und Leistungen für Kundinnen und Kunden“, unterstreicht Wiens. „Aber klar ist auch: Die Verantwortung für den redlichen und ordnungsgemäßen Einsatz von KI, die liegt bei den Unternehmen.“