Duree
18 heures

Description cours

Objectif : Comprendre comment utiliser les Supports Vectors Machines pour l'apprentissage supervisé et non supervisé. Quelques application des méthodes de regressions pénalisées.

Description du contenu de l'enseignement :

1. Supervised and unsupervised learning

2. Calibration versus prediction: how to avoid over-fitting

3. Measure of the complexity of a model according to Vapnik-Chervonenkis

4. Vapnik-Chervonenkis’s inequality and the control of the prediction error

5. Maximum margin SVMs and Gap tolerant classifiers

6. C-SVMs and duality

7. SVMs with kernels and Mercer’s theorem

8. The simplex case

9. Mu-SVM, duality and reduced convex envelopes

10. Single class SVMs, anomaly detections and clustering

11. An introduction to Bootstrap, decision trees and random forests

12. Ridge Regression, penalization, and yield curve smoothing

13. The Representer theorem, Lasso, parsimony and duality.

Pré-requis recommandés :

Algèbre linéaire, calcul différentiel et optimisation au niveau M1

Pré-requis obligatoire :

Algèbre linéaire et calcul différentiel

Professeurs

Pierre BRUGIERE
Maître de conférences, Université Paris-Dauphine - PSL