L’Autorité fédérale de surveillance des marchés financiers FINMA publie une communication sur la surveillance relative à la gouvernance et la gestion des risques en lien avec l’utilisation de l’intelligence artificielle (IA). Elle y attire l’attention sur les risques liés à l’utilisation de l’IA et décrit les observations faites dans le cadre de la surveillance courante.
L’IA est toujours plus utilisée sur les marchés financiers. Cette évolution s’accompagne d’une augmentation des risques, souvent difficiles à évaluer, liés à cette technologie. Il s’agit avant tout de risques opérationnels, notamment les risques de modèle (par ex. le manque de robustesse, d’exactitude ou d’explicabilité ainsi que les biais), de risques liés aux données (par ex. la sécurité, la qualité et la disponibilité des données), de risques informatiques et de cyberrisques, de la dépendance croissante envers des tiers ainsi que de risques juridiques et de réputation.
Dans le cadre de son activité de surveillance, la FINMA a observé que la plupart des établissements financiers n’en sont qu’au début du développement et que les structures correspondantes de gouvernance et de gestion des risques sont en cours d’élaboration. Dans ce contexte, elle attire l’attention des assujettis sur la nécessité d’identifier, d’évaluer, de gérer et de surveiller de manière appropriée les risques découlant de l’utilisation de l’IA. Elle informe aussi sur les mesures en la matière qu’elle a observées dans le cadre de la surveillance courante.
Cela devrait renforcer la réputation de la place financière et aider les établissements à protéger durablement leurs modèles d’affaires contre les risques dans un environnement en constante évolution, en misant sur une stratégie d’entreprise claire, une culture du risque et une gouvernance fortes ainsi que dans une gestion des risques proactive.