L’Autorità federale di vigilanza sui mercati finanziari FINMA pubblica la Comunicazione sulla vigilanza concernente la governance e la gestione del rischio nell’utilizzo dell’intelligenza artificiale, nella quale richiama l’attenzione sui rischi derivanti dall’impiego dell’intelligenza artificiale e descrive le constatazioni effettuate nella vigilanza continua.
L’utilizzo dell’intelligenza artificiale nel mercato finanziario è in aumento e di conseguenza anche i rischi che ne derivano, spesso difficili da valutare. Al riguardo si annoverano soprattutto i rischi operativi, in particolare rischi di modello (p. es. mancanza di robustezza, correttezza, bias e spiegabilità), rischi legati ai dati (p. es. sicurezza dei dati, qualità dei dati, disponibilità dei dati), rischi informatici e cyber-rischi, una crescente dipendenza da terzi e rischi giuridici e di reputazione.
Nel quadro della sua attività di vigilanza, la FINMA ha constatato che la maggior parte degli istituti finanziari è ancora nella fase iniziale di sviluppo e pertanto le corrispondenti strutture di governance e gestione del rischio sono in fase di elaborazione. In tale contesto, la FINMA richiama l’attenzione degli assoggettati sulla necessità di identificare, valutare, gestire e monitorare in maniera adeguata i rischi derivanti dall’utilizzo dell’intelligenza artificiale. Inoltre, informa sulle misure che ha constatato nel quadro della vigilanza continua.
Ciò è volto a rafforzare la reputazione della piazza finanziaria e a supportare gli istituti nella copertura, in un’ottica di lungo periodo, contro i rischi dei loro modelli operativi in un contesto in continua evoluzione, investendo in una chiara strategia commerciale, una forte cultura del rischio e governance e in una gestione proattiva dei rischi.