Künstliche Intelligenz:Wenn die Versicherung alles weiß

Künstliche Intelligenz: Wer war schuld? Manche Versicherungsfälle lassen sich einfach mit künstlicher Intelligenz klären, bei anderen muss ein Sachverständiger ran.

Wer war schuld? Manche Versicherungsfälle lassen sich einfach mit künstlicher Intelligenz klären, bei anderen muss ein Sachverständiger ran.

(Foto: imago images)

Fast alle Versicherungen nutzen KI oder experimentieren damit. Die Technik kann auch nützlich für die Versicherten sein. Sie kann aber auch dazu führen, dass treue Kunden bestraft werden.

Von Kaja Adchayan und Anne-Christin Gröger

Welches Auto fährt der Kunde und wie viel Unfälle hat er schon verursacht? War er zuletzt oft krank, besitzt er eine Immobilie? Lebt er in einer Region, in der es viel regnet? Versicherungsunternehmen können extrem viel über ihren Kunden herausfinden, auch dank der sozialen Medien. Sie verfügen über einen gewaltigen Datenschatz. Und mit Fahrdaten aus Autos, Fitness-Trackern und smarten Häusern kommen täglich Millionen weitere Datensätze bei den Gesellschaften hinzu. Mit diesen Informationen könnten Versicherer Voraussagen treffen, bei welchem Kunden bald ein Schaden eintreten, wer demnächst schwer erkranken und wer Interesse an einer Risikolebensversicherung haben könnte.

Möglich machen das neue Technologien wie künstliche Intelligenz (KI) und Data Analytics. Mithilfe von Algorithmen werten Maschinen die vielen Daten aus und errechnen Wahrscheinlichkeiten. Die Versicherungsbranche gehört zu jenen Wirtschaftszweigen, die am meisten von diesen Techniken profitieren. Wenn die Gesellschaften ihre riesigen Datenmengen intelligent auswerten, können sie Risiken bewerten, mit Schäden anders umgehen und ihre Kunden besser verstehen. Und sie können Betrugsfälle schneller aufklären.

Auch Kundinnen und Kunden können davon profitieren. Mithilfe der Technik können die Versicherungen etwa Schäden schneller bezahlen, weil sie besser planen können. "Wenn ein Kunde eine Rechnung für eine Ersatzbrille oder ein Hörgerät einreicht, muss da kein Sachbearbeiter mehr draufschauen, das kann eine Maschine machen", sagt Ina Schneider, Hauptabteilungsleiterin bei Deutschlands größtem privaten Krankenversicherer Debeka auf einer Fachtagung der SZ. "Die Kunden erwarten angesichts der Digitalisierung aller Lebensbereiche, dass auch wir Versicherer schnell und digital auf ihre Bedürfnisse eingehen."

Auch in der Kfz-Versicherung findet künstliche Intelligenz Einsatzfelder: Die Allianz etwa will die Zahl der von KI regulierten Kfz-Versicherungsschäden bis Ende des Jahres verfünffachen. Der Kunde fotografiert den Schaden, schickt die Bilder über das Smartphone, und eine künstliche Intelligenz berechnet die Reparaturkosten. Tauchen jedoch bei der Schadenmeldung Unregelmäßigkeiten auf, können die Systeme Alarm schlagen. Sie können Muster erkennen, etwa, wenn ein Kunde einen sehr ähnlichen Schaden schon mal gemeldet hat oder eine Telefonnummer oder E-Mail-Adresse genannt wird, die in einem Betrugsfall eine Rolle gespielt hat. Das nutzt nicht nur den Versicherern, sondern auch den Kunden. Denn weniger Betrugsfälle bei einem Versicherer wirken sich auf die Prämien aus.

Die Algorithmen bergen aber auch große Gefahren: Wenn die Maschinen Daten falsch interpretieren und falsche Schlüsse ziehen, kann das zu Diskriminierung bestimmter Personengruppen führen.

Das bestätigt Amadeus Magrabi vom Start-up Building Minds. Das Unternehmen hat sich auf KI-Anwendungen in der Immobilienbranche spezialisiert. "Die künstliche Intelligenz ist nur so gut wie die Daten, mit der sie gefüttert wird", sagt er. Fließen Trainingsdaten ein, die bereits gesellschaftliche Ungleichheiten abbilden, oder gewichtet der Algorithmus bestimmte Merkmale wie die Hautfarbe zu stark, kann es zu diskriminierenden Entscheidungen kommen.

"Künstliche Intelligenz und Data Analytics können bei der Risikobeurteilung bestimmte Kundengruppen diskriminieren", sagt auch Cenk Tabakoğlu, Chef des Münchener Start-ups Lumnion, das Versicherern Preisberechnungsmethoden anbietet. "Versicherer haben sehr viele Daten, auch von externen Anbietern", sagte er. "Ab einem gewissen Punkt wird das Machine Learning eine Black Box, deren Entscheidungen nicht nachvollzogen werden können." Besonders komplexe Algorithmen lieferten vielleicht bessere Ergebnisse, sie bergen jedoch das Risiko, dass die Entscheidung nicht ausreichend erklärt werden kann. Deswegen seien transparente Algorithmen notwendig.

Dafür plädierte auch Petra Hielkema, Chefin der europäischen Versicherungsaufsicht Eiopa. Versicherer müssten zur Verantwortung gezogen werden können, wenn ihre KI fragwürdige Entscheidungen trifft. Dafür müssten sie selbst aber wissen, wie genau der Algorithmus funktioniert. Hielkema stört sich vor allem an einer möglichen Diskriminierung treuer Kunden. Wenn etwa eine Maschine erkennt, dass ein Kunde sehr wahrscheinlich nicht kündigt, auch wenn die Police teurer wird, dann wird der Versicherer freilich genau das tun: die Preise erhöhen. Es brauche einen rechtlichen Rahmen, sagt Hielkema.

Genau das wird aktuell auch in der EU diskutiert. Die Kommission will den sogenannten Artificial Intelligence Act auf den Weg bringen, der den Einsatz von künstlicher Intelligenz besser regulieren soll. Die Regeln sollen für alle Branchen gleichermaßen gelten. Diesen Ansatz kann Hielkema zwar nachvollziehen - schließlich wird KI nicht nur in der Versicherungswirtschaft genutzt. Sie wünscht sich aber, dass die Besonderheiten der Versicherer stärker bei der Verordnung berücksichtigt werden. "Die Assekuranz ist eine ohnehin schon hoch regulierte Branche, die nicht überreguliert werden sollte", sagt sie. "Aber wir wollen auch keine Lücken."

Zur SZ-Startseite

SZ PlusKirchensteuer
:So viel Geld spart man mit dem Austritt aus der Kirche

Kaum eine Abgabe polarisiert so wie die Kirchensteuer. Was die Institutionen mit den Millioneneinnahmen machen - und wieso ein Austritt auch Nachteile haben kann.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: