Abo
Bei KI droht die Responsibility-Gap

Wer haftet, wenn KI versagt und immensen Schaden verursacht?

Um eine Haftungslücke bei Agentic AI zu verhindern, brauche es innovative Ideen der Versicherer, sagen Thomas Zwack und Oliver Wachsmuth.

Andreas Minor

Hängebrücke Belalp-Riederalp Wallis
Die Brücke in die Zukunft jetzt bauen: Agentic AI, also selbstagierende künstliche Intelligenz, schafft Haftungslücken. Um die drohende Responsibility-Gap zu schliessen, braucht es innovative Rezepte der Assekuranz. Chris K.

Werbung

Der Einsatz von künstlicher Intelligenz (KI) wirft Fragen bezüglich möglicher Diskriminierung, Haftung und vielem mehr auf. Wo stehen wir momentan?

Thomas Zwack: Hier vielleicht zunächst ein sehr einfaches und typisches Beispiel dazu: Auf Basis grosser Datenmengen können Versicherer zum Beispiel Entscheidungen darüber treffen, ob eine Schadenzahlung abgelehnt wird. Es gibt eine Vielzahl von Arten, um KI zu trainieren – etwa durch regelbasierte Modelle oder auch durch Deep Learning. Letztgenanntes lässt eine Entscheidung deutlich schwerer nachvollziehen. Wir haben in diesem Zusammenhang auch eine Vielzahl von Gesprächen mit den Aufsichtsbehörden geführt.

Um was zu bewirken?

Thomas Zwack: Banken und Versicherungen müssen dem Kunden erklären können, warum sie beispielsweise etwas ablehnen. Es muss dafür nachvollziehbare Gründe und keine Diskriminierung geben. Kommt die Entscheidung unter Verwendung eines Deep-Learning-Algorithmus zustande, dann könnte nebenher noch ein klassisches, einfaches und regelbasiertes Modell laufen. Kommt dieses Parallelmodell zur gleichen Entscheidung, kann man die Ablehnung gut erklären. Und: Vielleicht sollte auch noch ein Mensch darüberschauen.

Partner-Inhalte

Relevante Themen

Werbung