Décoder l'IA : Améliorer la transparence par l'interprétabilité et l'explicabilité

Explorez l'importance de la transparence dans la prise de décision en IA avec des outils pour renforcer la responsabilité et interpréter les résultats des modèles. 
Format

Cours
en ligne

Expert·e

Maryam Babaei

Date de la séance en direct

5 nov. , 2025

Heure de la séance en direct

12h30- 15h00

Individual preparatory work

1 Hour

Price

$225 + taxes

À propos du module

Comprendre comment les systèmes d'IA prennent des décisions est essentiel pour garantir la responsabilité et atténuer les impacts négatifs dans un paysage technologique complexe. Ce module examine la transparence algorithmique, en introduisant des méthodes pour interpréter les résultats des modèles. Les participant·e·s exploreront à la fois des techniques de développement de modèles interprétables et des méthodes d'explication post-hoc pour clarifier les modèles "boîte noire", rendant ainsi les systèmes d'IA plus transparents et compréhensibles pour les parties prenantes. De plus, les participant·e·s découvriront les sujets émergents en matière de transparence de l'IA et les limites des approches actuelles.

Objectifs d'apprentissage

Découvrez l'importance de la transparence dans les processus décisionnels à fort enjeu basés sur l'IA.
Comprendre les différentes approches visant à promouvoir la transparence dans l'IA et leurs limites.
Appliquer les techniques d'interprétabilité par la conception et les méthodes d'explication a posteriori à des tâches de prédiction concrètes.

À qui s'adresse ce module ?

Tous·tes les professionnel.le.s de l'IA, y compris les dirigeant.e.s exécutifs, les scientifiques des données, les ingénieur.e.s ML/AI, les développeur.e.s d'IA, les chef.fe.s de produits d'IA, les consultant.e.s en IA et les investisseur.e.s.
Conçu pour les participant·e·s ayant une compréhension fondamentale des concepts de l'intelligence artificielle, ainsi que des connaissances en probabilité, en algèbre linéaire et en apprentissage automatique/apprentissage profond. Une familiarité avec les frameworks d'apprentissage automatique et deep learning (tels que PyTorch et Scikit-learn) sera un atout, notamment pour s'exercer avec des exemples pratiques de codage intégrés.

Course Lessons

Maryam Babaei

Maryam Babaei est candidate au doctorat à l'École de technologie supérieure (ÉTS) de 
Montréal, menant ses recherches au laboratoire TISL sous la supervision du Dr.
Aïvodji (ÉTS) et Sébastien Gambs (UQAM). Elle est également affiliée à Mila -
Institut québécois de l'IA et le programme CREATE du CRSNG pour le développement responsable de l'intelligence artificielle. Ses recherches portent sur les risques pour la vie privée et la sécurité associés à l'utilisation post-hoc de l'IA dans des modèles d'apprentissage automatique, dans le but d'identifier les vulnérabilités et de mettre au point des solutions de gestion des risques, des stratégies d'atténuation pour améliorer la fiabilité des systèmes d'intelligence artificielle.