Décoder l'IA : Améliorer la transparence par l'interprétabilité et l'explicabilité

Explorez l'importance de la transparence dans la prise de décision en IA avec des outils pour renforcer la responsabilité et interpréter les résultats des modèles. 
Format

Cours
en ligne

Expert·e

Ulrich Aïvodji

Date de la séance en direct

29 oct , 2025

Heure de la séance en direct

12h30- 15h00

Individual preparatory work

1 Hour

Price

$225 + taxes

À propos du module

Comprendre comment les systèmes d'IA prennent des décisions est essentiel pour garantir la responsabilité et atténuer les impacts négatifs dans un paysage technologique complexe. Ce module examine la transparence algorithmique, en introduisant des méthodes pour interpréter les résultats des modèles. Les participant·e·s exploreront à la fois des techniques de développement de modèles interprétables et des méthodes d'explication post-hoc pour clarifier les modèles "boîte noire", rendant ainsi les systèmes d'IA plus transparents et compréhensibles pour les parties prenantes. De plus, les participant·e·s découvriront les sujets émergents en matière de transparence de l'IA et les limites des approches actuelles.

Objectifs d'apprentissage

Découvrez l'importance de la transparence dans les processus décisionnels à fort enjeu basés sur l'IA.
Comprendre les différentes approches visant à promouvoir la transparence dans l'IA et leurs limites.
Appliquer les techniques d'interprétabilité par la conception et les méthodes d'explication a posteriori à des tâches de prédiction concrètes.

À qui s'adresse ce module ?

Tous·tes les professionnel.le.s de l'IA, y compris les dirigeant.e.s exécutifs, les scientifiques des données, les ingénieur.e.s ML/AI, les développeur.e.s d'IA, les chef.fe.s de produits d'IA, les consultant.e.s en IA et les investisseur.e.s.
Conçu pour les participant·e·s ayant une compréhension fondamentale des concepts de l'intelligence artificielle, ainsi que des connaissances en probabilité, en algèbre linéaire et en apprentissage automatique/apprentissage profond. Une familiarité avec les frameworks d'apprentissage automatique et deep learning (tels que PyTorch et Scikit-learn) sera un atout, notamment pour s'exercer avec des exemples pratiques de codage intégrés.

Course Lessons

Ulrich Aïvodji

Ulrich Aïvodji est professeur adjoint en informatique à l’ÉTS Montréal, au département de génie logiciel et des technologies de l'information. Il est également membre académique associé chez Mila – l’Institut québécois d’intelligence artificielle, ainsi que membre régulier d’Obvia – l’Observatoire international sur les impacts sociétaux de l’IA et du numérique. Ses domaines de recherche incluent l’apprentissage automatique, l’optimisation, la protection des données et la sécurité informatique. Ses travaux actuels portent sur plusieurs aspects de l’apprentissage automatique digne de confiance, tels que l’équité, l’apprentissage préservant la vie privée et l’explicabilité.