Comment la subjectivité éthique complique-t-elle la réglementation de l’IA
Les humains ont des préjugés, conscients ou inconscients.
Or il peut s’avérer extrêmement complexe de déterminer précisément les causes – et les effets – des préjugés d’un individu ou d’une organisation.
Sachant tout cela, pourrait-on imaginer qu’en accordant davantage de pouvoir de décision aux ordinateurs et aux modèles d’intelligence artificielle (IA), on obtiendrait des résultats plus objectifs et plus éthiques?
Pas exactement.
N’oublions pas que c’est encore une personne qui doit décider des facteurs qui entrent en jeu dans le processus de décision d’un modèle.
En fin de compte, les modèles d’IA sont (pour l’instant, en tout cas) le résultat de la créativité, de la programmation et, oui, des préjugés humains.
Alors, comment s’assurer que l’éthique est une priorité quand des modèles d’IA sont élaborés et utilisés?
L’analyse des considérations éthiques en matière d’IA
Voilà un des thèmes sur lesquels s’est penché un groupe d’experts de l’IA provenant des services financiers, du secteur public et du milieu universitaire, lors d’ateliers tenus dans le cadre du Forum sur l’intelligence artificielle dans le secteur des services financiers (FIASSF).
Ces différents échanges, résumés et organisés dans le rapport du FIASSF, se sont articulés autour de quatre principes clés qui orientent l’utilisation et la réglementation de l’IA dans le secteur financier :
- E – Explicabilité
- D – Données
- G – Gouvernance
- E – Éthique
Dans cette série d’articles – dont les premiers ont porté sur l’explicabilité, les données et la gouvernance – nous examinons de près chacun de ces thèmes ainsi que les enseignements à en tirer et leur application à la recherche et aux activités dans le domaine de la réglementation.
À noter que le contenu de cet article et du rapport sur l’IA reflète les points de vue et les idées des conférenciers et des participants du FIASSF. Il ne doit pas être considéré comme étant représentatif de l’opinion des organisations auxquelles ils appartiennent, que ce soit les organisateurs du FIASSF, le Bureau du surintendant des institutions financières (BSIF) ou l’Institut du risque mondial (IRM).
De plus, le contenu de cet article et du rapport ne doit pas être interprété comme une directive du BSIF ou de tout autre organisme de réglementation, maintenant et dans l’avenir.
L’imprévisibilité de la subjectivité
La subjectivité est l’un des principaux facteurs qui rendent la définition de normes éthiques extrêmement complexe.
« Les défis que présente l’éthique de l’IA ainsi que sa complexité sont mis en lumière par la subjectivité du concept d’éthique en soi, par le fait que les normes en matière d’éthique sont appelées à changer au fil du temps ainsi que par la codification même des normes éthiques dans les lois et règlements, note le rapport du FIASSF. Pour les institutions financières opérant dans plusieurs endroits, les défis et la complexité de l’éthique sont d’autant plus exacerbés. »
La conception de l’équité peut différer d’une personne à l’autre (et pour une même personne, elle peut même varier en fonction du contexte).
Et d’ailleurs, qu’est-ce que l’équité au juste?
C’est l’une des questions clés dont ont discuté les participants du FIASSF.
Leurs débats ont porté sur les points suivants :
- Comment la relation entre l’éthique et la loi s’applique-t-elle à l’IA?
- Quels sont les différents points de vue sur les directives réglementaires en matière d’éthique de l’IA?
- Quels sont les défis liés à l’éthique de l’IA et comment ces défis peuvent-ils être surmontés?
- Existe-t-il une définition universelle de l’équité qui puisse être codifiée?
- Un « modèle subjectif ou biaisé » est-il nécessairement mauvais?
À défaut d’une définition universelle de l’équité, il est nécessaire d’en trouver une pour de multiples scénarios différents. Là encore, les possibilités sont presque illimitées.
« Il faudrait faire preuve de beaucoup de rigueur pour comprendre l’équité des décisions prises ou des mesures prises en fonction des résultats générés par l’IA, explique le rapport du FIASSF. En outre, les institutions financières auraient besoin de définir ce qui est considéré comme “équitable” en fonction de l’utilisation particulière d’une application d’IA. »
L’équité n’est-elle pas une évidence?
Pas vraiment. Pensez à l’assurance automobile.
Il pourrait sembler « équitable », a priori, que tout le monde paie la même prime. Mais en réalité, dans ce cas, le biais apporte une contribution essentielle au résultat des modèles.
Concrètement, si vous avez régulièrement des accidents, il est plus juste que vous payiez une prime plus élevée.
Cependant, toutes les situations ne sont pas aussi simples.
« Les participants au forum ont eu l’occasion de discuter des multiples nuances du concept d’éthique, indique le rapport du FIASSF. Premièrement, la relativité des principes et des valeurs éthiques a une incidence sur la façon dont les organisations de compétences différentes perçoivent l’éthique.
« De plus, la mise en œuvre des normes éthiques peut varier en fonction de ses applications précises au sein d’une organisation, poursuit le rapport. Par exemple, l’utilisation de l’historique de voyage pour détecter la fraude pourrait être considérée comme appropriée en raison de son potentiel de détection des activités suspectes ou frauduleuses en lien avec ces données, mais son utilisation pour évaluer la solvabilité peut être considérée comme contraire à l’éthique, car cette donnée n’est pas directement liée à la solvabilité d’une personne et peut potentiellement discriminer certaines personnes en fonction de leurs antécédents de voyage. »
La recherche de solutions
S’il n’existe pas de solution simple pour établir des normes d’éthique qui soient respectées, les participants au FIASSF ont proposé les suggestions suivantes comme point de départ :
- Perspectives multidisciplinaires
Il est nécessaire, à toutes les étapes du développement et de l’utilisation des applications d’IA, de mobiliser des équipes multidisciplinaires et diversifiées (p. ex. informaticiens, avocats, experts en science des données financières, éthiciens) afin de tirer profit d’une vaste perspective du sujet.
- Nouveaux rôles
Les organisations pourraient envisager d’investir davantage dans l’éthique de l’IA en ajoutant de nouveaux rôles tels que celui de dirigeant principal de l’éthique ou de la confiance.
- Normes
Les normes sont distinctes des règlements ou des lois; cependant, elles peuvent être d’application facultative ou obligatoire. Les organismes de normalisation peuvent établir des lignes directrices en matière d’éthique en fonction des conventions établies dans le secteur des services financiers afin de soutenir la gestion des risques liés aux technologies d’IA. Les associations professionnelles peuvent également élaborer des normes éthiques. L’Institut canadien des actuaires (ICA) a d’ailleurs élaboré des normes minimales de déontologie auxquelles ses membres doivent se conformer.
- Désignation de l’IA
Pour s’assurer que les questions éthiques appropriées sont prises en compte au cours du processus de conception, d’élaboration et de mise en œuvre des systèmes d’IA, il a été suggéré de créer une désignation qui exige une formation sur les questions éthiques. Par exemple, Singapour a créé un titre d’ingénieur agréé en IA en réponse à ce problème.
Quelle que soit l’approche retenue, le rapport du FIASSF est sans équivoque : il est essentiel d’opérationnaliser l’éthique de l’IA.
L’éthique doit être une condition du développement et de l’utilisation des modèles d’IA, et non leur résultante.
« Il est donc important que les organisations fassent preuve de transparence, tant à l’interne qu’à l’externe, et communiquent de manière proactive ce qu’elles font pour garantir que leurs modèles d’IA respectent des normes éthiques élevées, indique le rapport. De plus, puisque les normes éthiques ont tendance à changer, il est nécessaire de documenter la prise de décisions. »
Pour en savoir plus sur l’équité et les considérations éthiques liées à l’utilisation de l’IA dans le secteur financier, consultez le rapport complet du FIASSF (PDF, 5,29 Mo).