L'autorità di vigilanza finanziaria svizzera FINMA ha pubblicato nuove linee guida per l'utilizzo dell'intelligenza artificiale (IA). Queste norme sono state rese note il 18 dicembre 2024 in un documento intitolato “Guidance 08/2024”.”
Queste linee guida sono importanti per qualsiasi azienda tecnologica che vende prodotti di IA a banche o compagnie assicurative svizzere. Sebbene le norme siano destinate agli istituti finanziari, esse hanno un impatto diretto sui fornitori di tecnologia. I vostri clienti devono dimostrare che il vostro strumento di IA è sicuro e ben gestito. Se non sono in grado di farlo, non possono acquistare il vostro prodotto.
Questo articolo spiega cosa comportano queste nuove norme per la tua attività e come puoi prepararti.
Cosa prevedono le nuove norme FINMA
Le linee guida della FINMA si basano su principi e non su istruzioni tecniche precise. Esse definiscono obiettivi chiari per la gestione dei rischi legati all'intelligenza artificiale.
Qualcuno deve assumersi la responsabilità
Un essere umano deve essere responsabile di ogni sistema di IA. Le aziende non possono dare la colpa all'IA quando qualcosa va storto. Le banche e le assicurazioni devono assegnare una persona che sia responsabile di ogni strumento di IA.
Tieni un elenco di tutti gli strumenti di IA
Le società finanziarie devono creare e mantenere un inventario completo di tutte le loro applicazioni di IA. Questo elenco deve includere gli strumenti che sviluppano internamente e quelli che acquistano da altre società, come la vostra.
I leader devono comprendere l'intelligenza artificiale
Il consiglio di amministrazione e il team esecutivo dell'azienda hanno la responsabilità finale per i rischi legati all'IA. Devono comprendere l'IA abbastanza bene da poter stabilire limiti di sicurezza e supervisionarne l'uso. Ci si aspetta che pongano domande difficili sul funzionamento dei sistemi di IA.
Conoscere i pericoli dell'IA
La FINMA elenca diversi rischi legati all'IA che le aziende devono gestire. Questi rischi includono decisioni parziali, mancanza di spiegazioni chiare sui risultati dell'IA ed errori derivanti dall'IA generativa. Le banche devono capire quali di questi rischi si applicano a ciascun sistema di IA che utilizzano.
Le banche sono responsabili dei tuoi strumenti
Questo punto è fondamentale per le aziende tecnologiche. Quando una banca utilizza il vostro prodotto di IA, la banca ne è comunque responsabile al 100%. La banca non può trasferire il rischio a voi. Questo requisito implica che la banca deve controllare e monitorare attentamente il vostro prodotto per garantire che soddisfi gli standard FINMA.
L'IA deve spiegare le proprie decisioni
I risultati di un modello di IA devono essere comprensibili per il personale che lo utilizza. I modelli “black box”, in cui le decisioni sono un mistero, sono considerati ad alto rischio. Se la vostra IA non è in grado di spiegare come prende le decisioni, le banche svizzere avranno grandi difficoltà ad acquistare il vostro prodotto.
Perché è importante per la tua azienda tecnologica
Le norme della FINMA si applicano direttamente alle banche, non a voi. Ma nella pratica questo non fa molta differenza. I vostri clienti sono le banche. Esse devono seguire queste norme, quindi vi chiederanno di soddisfare gli stessi standard.
Prima che una banca svizzera acquisti il tuo prodotto di IA, deve effettuare dei controlli. Ti chiederà documenti, spiegazioni e prove che dimostrino che gestisci i rischi, come la distorsione dei dati. Se non sei in grado di fornire queste informazioni, perderai la vendita. La conformità è ormai un requisito indispensabile per entrare nel mercato.
Un sondaggio condotto dalla FINMA nell'aprile 2025 ha rivelato che circa il 50% delle società finanziarie svizzere utilizza già l'intelligenza artificiale. Questo uso diffuso significa che tali norme interessano un mercato molto ampio. La vostra capacità di soddisfare questi nuovi standard determinerà il vostro accesso a tale mercato.
Le norme svizzere contro la legge sull'IA dell'UE
La Svizzera e l'Unione Europea stanno intraprendendo percorsi diversi per regolamentare l'IA. Comprendere la differenza è fondamentale per la vostra strategia aziendale.
- L'approccio della Svizzera: Il metodo svizzero si basa su principi. La FINMA applica le norme finanziarie esistenti all'IA. Chiede alle banche di “gestire il rischio”, ma non fornisce un lungo elenco di norme tecniche specifiche.
- L'approccio dell'UE: La legge dell'UE sull'IA si basa su regole rigorose. Crea categorie fisse per l'IA, come “Ad alto rischio” o “Proibita”. Ogni categoria comporta obblighi giuridici specifici.
In Svizzera, il fatto che un'IA sia “ad alto rischio” dipende da come viene utilizzata. Lo stesso strumento di IA potrebbe essere a basso rischio in una situazione e ad alto rischio in un'altra. Nell'UE, la classificazione è spesso fissata dalla legge.
Tuttavia, molte banche svizzere operano anche nell'UE, quindi devono comunque rispettare la legge sull'IA dell'UE. A causa di questa sovrapposizione, spesso applicano gli standard più severi dell'UE a tutti i loro sistemi. Per le aziende tecnologiche, ciò significa che realizzare un prodotto conforme agli standard dell'UE è una buona strategia per accedere a entrambi i mercati.
Una checklist pratica per le aziende tecnologiche
Ecco cosa dovresti preparare per soddisfare le esigenze dei tuoi clienti.
Documenti e spiegazioni
- Dati sul modello: Crea un semplice foglio che documenti le fonti di dati, i metodi di addestramento e i limiti noti della tua IA.
- Spiegazioni chiare: Scrivi una sintesi non tecnica di come la tua IA prende le decisioni. Questa sintesi è fondamentale per vendere il prodotto alle banche.
- Qualità dei dati: Siate pronti a dimostrare di aver verificato che i vostri dati di addestramento non contengano errori o distorsioni.
Supervisione e monitoraggio
- Registro delle modifiche: Tieni traccia di tutti gli aggiornamenti apportati al tuo modello. I tuoi clienti dovranno sapere come testate l'IA dopo ogni modifica.
- Piano di riserva: Definisci cosa succede se la tua IA fallisce. Subentra una persona? Rendi chiaro il processo.
- Risultati dei test: Fornisci rapporti che dimostrino che il tuo modello funziona bene, anche in situazioni difficili.
Come questo influisce sul finanziamento della tua azienda
Gli investitori valutano attentamente se un prodotto tecnologico può essere venduto legalmente. Se il vostro prodotto di intelligenza artificiale non è in grado di soddisfare questi nuovi standard, il vostro mercato potenziale in Svizzera è molto più ridotto. Questa limitazione di mercato rende la vostra azienda un investimento più rischioso.
Ottenere finanziamenti dipende spesso dal successo dei progetti pilota con le banche. Tuttavia, le banche non testano un'intelligenza artificiale “black box” a causa del rischio normativo. Senza questi progetti pilota, diventa molto più difficile raccogliere fondi.
Gli investitori ora verificano la governance dell'IA durante il loro processo di revisione. Avere a disposizione documenti, piani di rischio e procedure di supervisione ti aiuterà a velocizzare la raccolta fondi.
Per gli investitori svizzeri, orientarsi in questo nuovo panorama è fondamentale. Ciò evidenzia l'importanza di bilanciare gli investimenti tecnologici ad alto rischio con investimenti più prevedibili. CapiWell aiuta gli investitori a raggiungere questo equilibrio fornendo accesso a una gamma di asset alternativi stabili, creando un portafoglio multi-asset ben diversificato.
Riferimenti
- FINMA, “Linee guida FINMA sulla governance e la gestione dei rischi nell'utilizzo dell'intelligenza artificiale” (18 dicembre 2024)
- FINMA, “Linee guida 08/2024: Governance e gestione dei rischi nell'utilizzo dell'intelligenza artificiale (IA)” (dicembre 2024)
- FINMA, “Sondaggio FINMA: l'intelligenza artificiale guadagna terreno presso gli istituti finanziari svizzeri” (24 aprile 2025)
- PwC Svizzera, “Cosa comporta la direttiva FINMA 08/2024 per il vostro istituto”
- Lenz & Staehelin, “La FINMA pubblica delle linee guida sull'uso dell'intelligenza artificiale negli istituti finanziari”
- Studio legale Pestalozzi, “Linee guida FINMA sulla governance e la gestione dei rischi nell'utilizzo dell'IA”