Le 13 février dernier, notre directrice générale de Confiance IA a eu le plaisir de participer au Panel : Audit et gouvernance des modèles d’apprentissage machine, lors de la 6e édition du HEC Forecast, organisée par Le Comité Science des Données de HEC Montréal.
Ce panel, particulièrement intéressant, rassemblait différents angles de vue et des expertises variées :
- Marie-Pierre Habas-Gérard, Directrice Générale du consortium industriel Confiance IA
- Lise-Estelle Brault, Directrice principale, Données, transformation numérique et innovation, Autorité des marchés financiers
- Alexandre Bercovy, président du chapitre montréalais de l’ISACA
- Modérateur : Michael Albo, CEO, Data Science Institute
Plusieurs objectifs étaient recherchés, il s’agissait ici de réfléchir au cadre de gouvernance de l’IA et plus particulièrement de l’apprentissage Machine en considérant l’ensemble des disciplines requises dans la conception de ces modèles, mais également le cycle de vie de cette IA dans le cadre de l’industrie financière en particulier. Les panélistes ont pu échanger sur les critères minimaux de gouvernance et de maîtrise des technologies IA que l’on peut attendre des organisations qui opèrent en Finance et comment et pourquoi l’AMF souhaite tirer parti de ces nouvelles technologies.
L’émergence de cadres de réglementation des systèmes à base d’IA (Artificial Intelligence Act en Europe, Standard ISO 42001 au niveau mondial …) vient également ajouter des contraintes sur l’industrie financière en matière de classification des risques, en exigences de transparence et de traçabilité. Alors, comment rester agile dans ce contexte quand on considère que l’Intelligence Artificielle n’est pas encore une Science exacte, mais que l’industrie financière, comme d’autres d’ailleurs, souhaite utiliser l’IA en production?
Un des aspects très intéressants abordés lors de ce panel a également été le sujet de la responsabilité liée à l’implantation d’un modèle d’IA : que ce soit les équipes Affaires qui ont la responsabilité de gérer les risques de ces modèles en tant que propriétaires de processus automatisés, où les équipes de conformité n’ont pas obligatoirement la connaissance de ces sujets et la responsabilité est souvent transférée aux équipes de scientifiques de données et aux équipes TI. Alors, comment améliorer ce continuum plus que nécessaire dans un quotidien souvent cantonné aux silos et au manque de communication entre équipes? Qu’est-ce qui caractérise un système de contrôle efficace au sein des organisations?
L’importance pour les organisations est désormais de travailler à qualifier, voire quantifier le niveau de transparence envers les consommateurs et le public, favoriser l’auditabilité et l’interprétabilité des recommandations d’une solution basée sur l’IA. Au même titre, il s’agira de renforcer la sécurité et la cybersécurité des solutions en IA, d’une façon systématique et contrôlée et dès la phase de conception. La cybersécurité est une discipline indissociable de l’ingénierie d’IA comme elle doit l’être dans n’importe quel cycle d’ingénierie logicielle.
N’hésitez pas à nous contacter pour en savoir plus sur les piliers de Confiance IA en IA robuste, sécurisée, durable, responsable et éthique. Nous restons à l’écoute de vos idées ou projets en Intelligence Artificielle.
Merci à HEC pour l’invitation et merci aux différentes panélistes et à Michael Albo pour la richesse et la qualité des échanges.