Die Schweizer Finanzaufsichtsbehörde FINMA hat neue Richtlinien für den Einsatz künstlicher Intelligenz (KI) herausgegeben. Diese Regeln wurden am 18. Dezember 2024 in einem Dokument mit dem Titel “Guidance 08/2024” veröffentlicht.”
Diese Richtlinien sind für jedes Technologieunternehmen wichtig, das KI-Produkte an Schweizer Banken oder Versicherungsgesellschaften verkauft. Die Vorschriften gelten zwar für Finanzinstitute, wirken sich jedoch direkt auf Sie als Technologieanbieter aus. Ihre Kunden müssen nachweisen, dass Ihr KI-Tool sicher ist und ordnungsgemäß verwaltet wird. Ist dies nicht möglich, können sie Ihr Produkt nicht kaufen.
Dieser Artikel erklärt, was diese neuen Vorschriften für Ihr Unternehmen bedeuten und wie Sie sich darauf vorbereiten können.
Was die neuen FINMA-Vorschriften besagen
Die Leitlinien der FINMA basieren auf Grundsätzen und nicht auf genauen technischen Anweisungen. Sie legen klare Ziele für das Management von KI-Risiken fest.
Jemand muss die Verantwortung übernehmen.
Ein Mensch muss für jedes KI-System verantwortlich sein. Unternehmen können nicht die KI beschuldigen, wenn etwas schief geht. Banken und Versicherungen müssen für jedes KI-Tool eine Person benennen, die dafür verantwortlich ist.
Führen Sie eine Liste aller KI-Tools
Finanzunternehmen müssen ein vollständiges Verzeichnis aller ihrer KI-Anwendungen erstellen und pflegen. Diese Liste muss sowohl selbst entwickelte Tools als auch Tools enthalten, die sie von anderen Unternehmen, wie Ihrem, erwerben.
Führungskräfte müssen KI verstehen
Der Vorstand und die Geschäftsleitung des Unternehmens tragen die letztendliche Verantwortung für KI-Risiken. Sie müssen KI gut genug verstehen, um Sicherheitsgrenzen festzulegen und deren Einsatz zu überwachen. Von ihnen wird erwartet, dass sie kritische Fragen zur Funktionsweise von KI-Systemen stellen.
Die Gefahren der KI kennen
Die FINMA listet mehrere KI-Risiken auf, die Unternehmen bewältigen müssen. Zu diesen Risiken gehören voreingenommene Entscheidungen, ein Mangel an klaren Erklärungen für KI-Ergebnisse und Fehler durch generative KI. Banken müssen herausfinden, welche dieser Risiken für jedes von ihnen verwendete KI-System gelten.
Banken sind für Ihre Tools verantwortlich
Dieser Punkt ist für Technologieunternehmen von entscheidender Bedeutung. Wenn eine Bank Ihr KI-Produkt nutzt, ist sie weiterhin zu 100 % dafür verantwortlich. Die Bank kann das Risiko nicht an Sie weitergeben. Diese Anforderung bedeutet, dass die Bank Ihr Produkt genau prüfen und überwachen muss, um sicherzustellen, dass es den Standards der FINMA entspricht.
KI muss ihre Entscheidungen erklären
Die Ergebnisse eines KI-Modells müssen für die Mitarbeiter, die es verwenden, verständlich sein. “Black-Box”-Modelle, bei denen die Entscheidungen ein Rätsel sind, gelten als sehr risikoreich. Wenn Ihre KI nicht erklären kann, wie sie Entscheidungen trifft, wird es für Schweizer Banken sehr schwierig sein, Ihr Produkt zu kaufen.
Warum dies für Ihr Technologieunternehmen wichtig ist
Die Vorschriften der FINMA gelten direkt für Banken, nicht für Sie. In der Praxis macht dies jedoch kaum einen Unterschied. Ihre Kunden sind die Banken. Diese müssen diese Vorschriften befolgen und werden daher von Ihnen verlangen, dass Sie dieselben Standards erfüllen.
Bevor eine Schweizer Bank Ihr KI-Produkt kauft, muss sie Überprüfungen durchführen. Sie wird Sie um Dokumente, Erklärungen und Nachweise bitten, dass Sie Risiken wie Datenverzerrungen kontrollieren. Wenn Sie diese Informationen nicht vorlegen können, verlieren Sie den Verkauf. Die Einhaltung der Vorschriften ist heute eine Voraussetzung für den Markteintritt.
Die Umfrage der FINMA vom April 2025 ergab, dass etwa 50% der Schweizer Finanzunternehmen bereits KI einsetzen. Aufgrund dieser weit verbreiteten Nutzung betreffen diese Vorschriften einen sehr großen Markt. Ihre Fähigkeit, diese neuen Standards zu erfüllen, wird Ihren Zugang zu diesem Markt bestimmen.
Die Vorschriften der Schweiz im Vergleich zum EU-KI-Gesetz
Die Schweiz und die Europäische Union gehen bei der Regulierung der KI unterschiedliche Wege. Das Verständnis dieser Unterschiede ist für Ihre Geschäftsstrategie von entscheidender Bedeutung.
- Der Ansatz der Schweiz: Die Schweizer Methode basiert auf Prinzipien. Die FINMA wendet bestehende Finanzvorschriften auf KI an. Sie fordert die Banken auf, “das Risiko zu managen”, gibt jedoch keine lange Liste spezifischer technischer Vorschriften vor.
- Der Ansatz der EU: Das EU-KI-Gesetz basiert auf strengen Regeln. Es schafft feste Kategorien für KI, wie z. B. “Hochrisiko” oder “Verboten”. Jede Kategorie ist mit spezifischen rechtlichen Pflichten verbunden.
In der Schweiz hängt es von der Verwendung ab, ob eine KI als “risikoreich” gilt. Dasselbe KI-Tool kann in einer Situation risikoarm und in einer anderen risikoreich sein. In der EU ist die Einstufung oft gesetzlich festgelegt.
Viele Schweizer Banken sind jedoch auch in der EU tätig, sodass sie ohnehin die EU-KI-Verordnung befolgen müssen. Aufgrund dieser Überschneidung wenden sie häufig die strengeren EU-Standards auf alle ihre Systeme an. Für Technologieunternehmen bedeutet dies, dass die Entwicklung eines Produkts, das den EU-Standards entspricht, eine gute Strategie ist, um Zugang zu beiden Märkten zu erhalten.
Eine praktische Checkliste für Technologieunternehmen
Hier finden Sie eine Liste mit Dingen, die Sie vorbereiten sollten, um die Bedürfnisse Ihrer Kunden zu erfüllen.
Dokumente und Erläuterungen
- Modelldaten: Erstellen Sie ein einfaches Dokument, in dem die Datenquellen, Trainingsmethoden und bekannten Grenzen Ihrer KI dokumentiert sind.
- Klare Erklärungen: Verfassen Sie eine nicht-technische Zusammenfassung darüber, wie Ihre KI Entscheidungen trifft. Diese Zusammenfassung ist für den Verkauf an Banken von entscheidender Bedeutung.
- Datenqualität: Seien Sie bereit, nachzuweisen, dass Sie Ihre Trainingsdaten auf Fehler und Verzerrungen überprüft haben.
Aufsicht und Überwachung
- Änderungsprotokoll: Führen Sie Buch über alle Aktualisierungen Ihres Modells. Ihre Kunden müssen wissen, wie Sie die KI nach Änderungen testen.
- Backup-Plan: Legen Sie fest, was passiert, wenn Ihre KI versagt. Übernimmt dann eine Person? Machen Sie den Prozess klar.
- Testergebnisse: Legen Sie Berichte vor, die zeigen, dass Ihr Modell auch in schwierigen Situationen gut funktioniert.
Wie sich dies auf die Finanzierung Ihres Unternehmens auswirkt
Investoren prüfen genau, ob ein Technologieprodukt legal verkauft werden kann. Wenn Ihr KI-Produkt diese neuen Standards nicht erfüllt, ist Ihr potenzieller Markt in der Schweiz deutlich kleiner. Diese Marktbeschränkung macht Ihr Unternehmen zu einer risikoreicheren Investition.
Die Finanzierung hängt oft von erfolgreichen Pilotprojekten mit Banken ab. Aufgrund des regulatorischen Risikos werden Banken jedoch keine “Black Box”-KI testen. Ohne diese Pilotprojekte wird es viel schwieriger, Geld zu beschaffen.
Investoren prüfen nun im Rahmen ihres Überprüfungsprozesses die KI-Governance. Wenn Sie Ihre Dokumente, Risikopläne und Aufsichtsverfahren bereit haben, können Sie die Kapitalbeschaffung schneller vorantreiben.
Für Schweizer Anleger ist es entscheidend, sich in dieser neuen Landschaft zurechtzufinden. Dies unterstreicht, wie wichtig es ist, risikoreiche Technologieinvestitionen mit besser vorhersehbaren Anlagen auszugleichen. CapiWell hilft Anlegern dabei, dieses Gleichgewicht zu erreichen, indem es ihnen Zugang zu einer Reihe stabiler, alternativer Anlagen bietet und so ein ausgewogenes Multi-Asset-Portfolio schafft.
Referenzen
- FINMA, “FINMA-Leitfaden zu Governance und Risikomanagement beim Einsatz künstlicher Intelligenz” (18. Dezember 2024)
- FINMA, “Leitfaden 08/2024: Governance und Risikomanagement beim Einsatz künstlicher Intelligenz (KI)” (Dezember 2024)
- FINMA, “FINMA-Umfrage: Künstliche Intelligenz gewinnt bei Schweizer Finanzinstituten an Bedeutung” (24. April 2025)
- PwC Schweiz, “Was die FINMA-Richtlinie 08/2024 für Ihr Institut bedeutet”
- Lenz & Staehelin, “FINMA veröffentlicht Leitlinien zum Einsatz von KI in Finanzinstituten”
- Pestalozzi Rechtsanwälte, “FINMA-Leitlinien zu Governance und Risikomanagement beim Einsatz von KI”