Actualités

Participation de Marie-Pierre Habas-Gerard au Forum InCyber North America

Le 25 et 26 octobre dernier, en plein cœur de l’événement # InCyber Forum (FIC) – NORTH AMERICA, notre directrice générale de Confiance IA a eu le plaisir d’animer le panel Cybersécurité : pour une IA de confiance organisé au Palais des congrès de Montréal.

L’IA de Confiance est un sujet qui concerne de plus en plus de monde actuellement. Avec sa cohorte d’inquiétude et parfois une certaine résistance à intégrer cette IA qui reste toujours méconnue. Et pourtant l’IA bien pensée et opérationnalisée dans la vraie vie a déjà démontré des apports incroyables et valorisable pour l’humain et le citoyen.

Alors comment faire pour concevoir et livrer cette IA sûre et sécurisée, durable et éthique. Quels sont les grands liens entre l’IA de confiance et la cybersécurité et comment rallier autour de cette cause, le savoir-faire déjà bien établi au Québec dans le domaine de la cybersécurité et de la sécurité?

Lors de ce rendez-vous incontournable pour les entreprises et l’écosystème de la cybersécurité du Québec, trois axes de discussion ont émergé autour de l’IA de confiance et la cybersécurité :

  1. Les zones dans lesquelles l’IA de confiance doit être mise en œuvre et pourquoi dans le domaine spécifique des systèmes apprenants
  2. la nécessité de parler de la sécurité par design et comment elle rejoint finalement les grands concepts bout en bout déjà vus dans le cycle de vie de l’ingénierie logicielle et du traitement des données
  3. et comment sécuriser les outils et les applications en IA du marché, comme par exemple GPT, en fiabilisant et en augmentant leur robustesse.

L’importance est désormais d’assurer une fabrication de l’IA de confiance dans les différentes phases qui la composent, c’est-à-dire depuis l’ingénierie profonde des modèles jusqu’aux méthodes et outils de déploiement sur les plateformes technologiques, ce qui passe par des bonnes pratiques, des métriques de surveillances et la formation des experts en IA et des utilisateurs des solutions. N’oublions pas que l’IA peut être utilisée à des fins néfastes pour les systèmes et l’humain, comme par exemple, dans le cas de la conception d’attaques complexes, ce qui doit être contré de façon systématique par l’application d’un cadre et de métriques observables. La multidisciplinarité des expertises est également nécessaire. Enfin et parallèlement c’est également l’opportunité de comprendre comment l’IA peut être utilisée pour accélérer de meilleures pratiques de cybersécurité.

Nous sommes ravis de vous inviter à découvrir les réflexions et les observations partagés par nos experts invités lors de cette discussion. Merci à CAE, Polytechnique et CGI d’avoir participé et enrichi le débat.

Bon visionnement !