Guide sur les Nouvelles Règles relatives à l'IA destiné à la Tech Suisse

Nouvelles règles relatives à l'IA publiées par la FINMA dans la directive 08/2024

L'autorité suisse de régulation financière, la FINMA, a publié de nouvelles directives relatives à l'utilisation de l'intelligence artificielle (IA). Ces règles ont été publiées le 18 décembre 2024 dans un document intitulé “ Guidance 08/2024 ”.”

Ces directives sont importantes pour toute entreprise technologique qui vend des produits d'IA à des banques ou des compagnies d'assurance suisses. Bien que ces règles s'adressent aux institutions financières, elles vous concernent directement en tant que fournisseur de technologies. Vos clients doivent prouver que votre outil d'IA est sûr et bien géré. S'ils ne peuvent pas le faire, ils ne peuvent pas acheter votre produit.

Cet article explique ce que ces nouvelles règles signifient pour votre entreprise et comment vous pouvez vous y préparer.

Ce que disent les nouvelles règles de la FINMA

Les directives de la FINMA reposent sur des principes et non sur des instructions techniques précises. Elles fixent des objectifs clairs pour la gestion des risques liés à l'IA.

Quelqu'un doit être responsable

Un être humain doit être responsable de chaque système d'IA. Les entreprises ne peuvent pas rejeter la faute sur l'IA lorsque quelque chose ne fonctionne pas correctement. Les banques et les assureurs doivent désigner une personne responsable de chaque outil d'IA.

Conservez une liste de tous les outils d'IA

Les sociétés financières doivent créer et tenir à jour un inventaire complet de toutes leurs applications d'IA. Cette liste doit inclure les outils qu'elles développent elles-mêmes et ceux qu'elles achètent à d'autres entreprises, comme la vôtre.

Les dirigeants doivent comprendre l'IA

Le conseil d'administration et l'équipe de direction de l'entreprise ont la responsabilité finale en matière de risques liés à l'IA. Ils doivent suffisamment bien comprendre l'IA pour fixer des limites de sécurité et superviser son utilisation. Ils sont tenus de poser des questions difficiles sur le fonctionnement des systèmes d'IA.

Connaître les dangers de l'IA

La FINMA énumère plusieurs risques liés à l'IA que les entreprises doivent gérer. Ces risques comprennent les décisions biaisées, l'absence d'explications claires concernant les résultats de l'IA et les erreurs provenant de l'IA générative. Les banques doivent déterminer lesquels de ces risques s'appliquent à chaque système d'IA qu'elles utilisent.

Les banques sont responsables de vos outils

Ce point est essentiel pour les entreprises technologiques. Lorsqu'une banque utilise votre produit d'IA, elle en reste responsable à 100 %. Elle ne peut pas vous transférer le risque. Cette exigence signifie que la banque doit vérifier et surveiller de près votre produit afin de s'assurer qu'il répond aux normes de la FINMA.

L'IA doit expliquer ses décisions

Les résultats d'un modèle d'IA doivent être compréhensibles pour le personnel qui l'utilise. Les modèles “ boîte noire ”, où les décisions sont un mystère, sont considérés comme très risqués. Si votre IA ne peut pas expliquer comment elle prend ses décisions, les banques suisses auront beaucoup de mal à acheter votre produit.

Pourquoi cela est important pour votre entreprise technologique

Les règles de la FINMA s'appliquent directement aux banques, et non à vous. Mais dans la pratique, cela ne fait guère de différence. Vos clients sont les banques. Elles doivent respecter ces règles et vous demanderont donc de vous conformer aux mêmes normes.

Avant qu'une banque suisse n'achète votre produit d'IA, elle doit effectuer des vérifications. Elle vous demandera des documents, des explications et des preuves que vous gérez les risques tels que les biais dans les données. Si vous ne pouvez pas fournir ces informations, vous perdrez la vente. La conformité est désormais une condition requise pour entrer sur le marché.

Une enquête menée par la FINMA en avril 2025 a montré qu'environ 50% des entreprises financières suisses utilisent déjà l'IA. Cette utilisation généralisée signifie que ces règles affectent un marché très vaste. Votre capacité à respecter ces nouvelles normes déterminera votre accès à ce marché.

Les règles suisses face à la loi européenne sur l'IA

La Suisse et l'Union européenne empruntent des voies différentes pour réglementer l'IA. Il est essentiel de comprendre cette différence pour votre stratégie commerciale.

  • L'approche de la Suisse : La méthode suisse repose sur des principes. La FINMA applique les règles financières existantes à l'IA. Elle demande aux banques de “ gérer le risque ”, mais ne fournit pas une longue liste de règles techniques spécifiques.
  • L'approche de l'UE : La loi européenne sur l'IA repose sur des règles strictes. Elle crée des catégories fixes pour l'IA, telles que “ à haut risque ” ou “ interdite ”. Chaque catégorie s'accompagne d'obligations légales spécifiques.

En Suisse, le caractère “ à haut risque ” d'une IA dépend de son utilisation. Un même outil d'IA peut présenter un faible risque dans une situation et un risque élevé dans une autre. Dans l'UE, la classification est souvent fixée par la loi.

Cependant, de nombreuses banques suisses opèrent également dans l'UE, elles doivent donc de toute façon se conformer à la loi européenne sur l'IA. En raison de ce chevauchement, elles appliquent souvent les normes européennes plus strictes à tous leurs systèmes. Pour les entreprises technologiques, cela signifie que concevoir un produit conforme aux normes européennes est une bonne stratégie pour accéder aux deux marchés.

Une liste de contrôle pratique pour les entreprises technologiques

Voici ce que vous devez préparer pour répondre aux besoins de vos clients.

Documents et explications

  • Caractéristiques du modèle : Créez une feuille simple qui documente les sources de données, les méthodes d'entraînement et les limites connues de votre IA.
  • Explications claires : Rédigez un résumé non technique expliquant comment votre IA prend ses décisions. Ce résumé est essentiel pour convaincre les banques.
  • Qualité des données : Soyez prêt à montrer que vous avez vérifié vos données d'entraînement pour détecter les erreurs et les biais.

Surveillance et contrôle

  • Journal des modifications : Conservez une trace de toutes les mises à jour apportées à votre modèle. Vos clients auront besoin de savoir comment vous testez l'IA après chaque modification.
  • Plan de secours : Définissez ce qui se passe si votre IA échoue. Une personne prend-elle le relais ? Clarifiez le processus.
  • Résultats des tests : Fournissez des rapports démontrant que votre modèle fonctionne bien, même dans des situations difficiles.

Comment cela affecte le financement de votre entreprise

Les investisseurs examinent attentivement si un produit technologique peut être vendu légalement. Si votre produit d'IA ne répond pas à ces nouvelles normes, votre marché potentiel en Suisse est beaucoup plus restreint. Cette limitation du marché rend votre entreprise plus risquée pour les investisseurs.

L'obtention d'un financement dépend souvent de la réussite de projets pilotes menés avec des banques. Or, celles-ci refusent de tester une IA de type “ boîte noire ” en raison du risque réglementaire que cela comporte. Sans ces projets pilotes, il devient beaucoup plus difficile de lever des fonds.

Les investisseurs vérifient désormais la gouvernance de l'IA lors de leur processus d'examen. Le fait d'avoir vos documents, vos plans de gestion des risques et vos procédures de contrôle prêts vous aidera à accélérer votre levée de fonds.

Pour les investisseurs suisses, il est essentiel de savoir naviguer dans ce nouveau paysage. Cela souligne l'importance de trouver un équilibre entre les paris technologiques à haut risque et les investissements plus prévisibles. CapiWell aide les investisseurs à atteindre cet équilibre en leur donnant accès à une gamme d'actifs alternatifs stables, créant ainsi un portefeuille multi-actifs bien équilibré.

Références

  • FINMA, “ Directives de la FINMA relatives à la gouvernance et à la gestion des risques lors de l'utilisation de l'intelligence artificielle ” (18 décembre 2024)
  • FINMA, “ Directive 08/2024 : Gouvernance et gestion des risques lors de l'utilisation de l'intelligence artificielle (IA) ” (décembre 2024)
  • FINMA, “ Enquête FINMA : l'intelligence artificielle gagne du terrain dans les institutions financières suisses ” (24 avril 2025)
  • PwC Suisse, “ Ce que la directive FINMA 08/2024 signifie pour votre institution ”
  • Lenz & Staehelin, “ La FINMA publie des directives sur l'utilisation de l'IA dans les établissements financiers ”
  • Pestalozzi Attorneys at Law, “ Directives de la FINMA sur la gouvernance et la gestion des risques lors de l'utilisation de l'IA ”

Dernières news et ressources