Forum sur l’intelligence artificielle dans le secteur des services financiers: une perspective canadienne sur l’intelligence artificielle responsable
Sommaire
Grâce aux grandes améliorations qui ont été réalisées en matière de disponibilité et d’accessibilité des données ainsi qu’aux avancées dans les techniques de modélisation, des modèles sont maintenant appliqués à un nombre croissant d’activités dans les institutions financières réglementées au Canada. Les capacités de l’IA et l’utilisation qui en est faite ont par contre évolué plus rapidement que la réglementation.
Le BSIF s’est donc associé à l’Institut du risque mondial (Global Risk Institute en anglais seulement) pour mettre sur pied une collectivité de leaders d’opinion en IA. Ils sont issus du milieu universitaire, des organismes de réglementation, des banques, des assureurs, des régimes de retraite, des technologies financières et des centres de recherche. Ce groupe, appelé Forum sur l’intelligence artificielle dans le secteur des services financiers (FIASSF), a pour objectif de faire avancer la conversation sur les mesures de protection appropriées et la gestion des risques liés à l’utilisation de l’intelligence artificielle (IA) dans les institutions financières.
Les idées mises de l’avant pour soutenir le développement sécuritaire de l’IA ont été regroupées selon quatre principes E-D-G-E, soit l’explicabilité, les données, la gouvernance et l’éthique.
Principes pour une intelligence artificielle responsable – E-D-G-E
Explicabilité
L’explicabilité dépend à la fois du cas d’usage et du cadre de gouvernance; ce principe doit être pris en considération dès le début du processus de conception du modèle d’IA. Pour démontrer que les objectifs de modélisation ne se limitent pas au rendement, des exemples privilégiant la sélection d’un modèle explicable au lieu d’un modèle plus performant ont été fournis. Les participants se sont également penchés sur les motifs qui pourraient justifier, dans les cas d’usage ayant d’importantes répercussions, l’utilisation de modèles intrinsèquement explicables plutôt que le recours aux explications post-hoc.
Données
Les institutions financières travaillent depuis longtemps avec les données, mais l’intégration de l’IA (ainsi que des sources de données) dans leurs opérations a présenté de nouveaux défis en matière de gestion et d’utilisation des données. Il est donc possible qu’elles éprouvent plus de difficulté à intégrer et à normaliser les contrôles permettant de gérer le risque lié aux données, surtout lorsqu’on tient compte de l’augmentation du volume de données, de l’intensification de la génération et de l’utilisation de ces données, et de l’émergence de nouvelles sources et de nouveaux types de données. Ces difficultés sont accentuées lorsque les données sont cloisonnées au sein d’une organisation ou lorsqu’elles proviennent de sources externes différentes. L’amélioration des données utilisées pour entraîner un algorithme aura une incidence directe sur la performance du modèle. Par conséquent, il est important que les institutions financières harmonisent leurs activités et leurs données pour ainsi recueillir, gérer et analyser les données qui cadrent avec leurs objectifs. D’ailleurs, pour que les systèmes d’intelligence artificielle fonctionnent efficacement, il est essentiel que les données soient exactes, cohérentes et exhaustives, ce qui peut être obtenu grâce à une bonne gouvernance des données.
Gouvernance
La gouvernance a beaucoup gagné en importance avec le temps. Au fil de son évolution, elle a acquis les propriétés suivantes : elle doit être intégrée et s’appliquer à tous les paliers de l’organisation, les rôles et responsabilités doivent être clairs, la tolérance au risque doit être bien définie et elle doit pouvoir s’adapter à mesure qu’une institution chemine dans son adoption de l’IA. En outre, la gouvernance du modèle d’IA exige une approche multidisciplinaire pour être efficace. Cette gouvernance doit intégrer une approche axée sur le risque et ne pas être exercée de manière machinale.
Éthique
Le concept d’éthique, quant à lui, est très nuancé et est naturellement subjectif, en plus de reposer sur des normes qui sont appelées à changer au fil du temps. D’ailleurs, la codification de ces normes dans les lois et règlements témoigne des défis et de la complexité de l’éthique de l’IA. Il n’existe, en effet, pas de définition universelle de l’équité. Qui plus est, la perception qu’on peut en avoir est influencée par le contexte et le point de vue. Dans le domaine de l’équité algorithmique, il existe différentes définitions mathématiques, dont plusieurs qui se contredisent. Si on fait abstraction de l’aspect juridique, le respect de la loi ne signifie pas toujours que les actions et les résultats sont équitables ou perçus comme tels. Il existe de nombreux cas d’usage pour lesquels le résultat souhaité est empreint de partialité, notamment les politiques de tarification et la stratification du risque. De plus, les données utilisées pour l’entraînement de l’IA peuvent être la source de biais et de résultats injustes. Les institutions financières utilisent actuellement une approche « d’équité par l’ignorance » dans leurs modèles pour lutter contre la discrimination. Cette approche fait abstraction de certaines données personnelles dans la prise de décision et, en fait, ne les recueille même pas. De plus, l’absence de ces données complexifie la mise à l’essai des modèles. Les exigences de la société en matière de maintien de normes éthiques élevées ne cessent de croître. Les institutions financières courent alors des risques réputationnels bien réels et peuvent en subir les répercussions lorsque des préjudices imputables à un manquement éthique, réel ou perçu, sont causés aux clients. Il est donc important que les organisations fassent preuve de transparence, tant à l’interne qu’à l’externe, et communiquent de manière proactive ce qu’elles font pour garantir que leurs modèles d’IA respectent des normes éthiques élevées.
Équilibre entre réglementation et innovation dans le domaine de l’intelligence artificielle
À l’échelle mondiale, les organismes de réglementation doivent trouver le juste équilibre entre la réglementation et l’innovation; c’est-à-dire l’équilibre entre l’établissement d’une réglementation solide et le maintien de la capacité d’adaptation et de la concurrentialité des institutions financières. Les différentes approches utilisées à travers le monde pour réglementer l’IA varient grandement. Certaines institutions comme la Banque d’Angleterre (en anglais seulement) adoptent une approche fondée sur des principes, tandis que d’autres comme l’Autorité monétaire de Singapour (en anglais seulement) y vont de directives normatives plus granulaires.
Les observations et les commentaires émis par les participants lors du FIASSF témoignent de la nécessité de collaborer et d’adopter une approche multidisciplinaire. On remarque également un fort appétit pour un dialogue continu sur le sujet dans le secteur canadien des services financiers.