Analyse
Ce qu'a observé le jury
Synthèse Hadamard du rapport officiel — citations, chiffres et conseils du jury.
Présentation du sujet
Sujet autour du transport de masse régularisé (papier Sinkhorn Distances de Marco Cuturi, 2013, machine learning). Partie I : convexité et points selles, théorème des extrema liés. Partie II : entropie et codage de Shannon, divergence de Kullback-Leibler. Partie III : transport régularisé, étude du minimum d'une fonction strictement convexe via la divergence de KL. Partie IV : algorithme de Sinkhorn par dualité lagrangienne.
Structure de l'épreuve
- Partie I — Partie I — Convexité et points selles(Q1-Q3)Niveau attendu
Projection sur convexe fermé, théorème des extrema liés. Q1 unicité bien démontrée par moitié des candidats. Q2-c confusion fréquente sur arguments de dimension. Q3 partie (a) pas abordée, (b)/(c) plutôt bien traitées.
- Partie II — Partie II — Entropie et codage (Shannon)(Q4-Q6)Niveau attendu
Confusion log/ln signalée et tolérée. Q4 modulo remarque très bien traitée. Q5(b) veiller au mot 'vide', peu fait. Q5(c) raisonnement par récurrence en veillant à l'initialisation, fait par moitié.
- Partie III — Partie III — Transport régularisé(Q7-Q11)Difficile
F(alpha,beta) intersection de Q avec hyperplans affines. Q7 candidats reviennent à la définition de la convexité. Q9 fonction linéaire convexe, calculs aveugles à éviter. Q11 exemple trivial à donner mais peu fait.
- Partie IV — Partie IV — Dualité (algorithme de Sinkhorn)(Q12-Q16)Très difficile
Q12-a point facile gagné. Q12-b très peu de candidats parviennent à suivre l'indication. Q13 et suivantes rarement abordées correctement (calcul de dérivées partielles, concavité de G via exponentielle).
Analyse globale du jury
« Le sujet portait sur le transport de masse dans sa version régularisée introduite en 2013 par Marco Cuturi (Sinkhorn Distances : Lightspeed Computation of Optimal Transport). La version relaxée de Kantorovitch conduit à un problème linéaire sur le simplex sous contrainte difficile à résoudre en pratique pour des problèmes de grande taille. La version avec régularisation entropique préserve la convexité du problème et permet par dualité lagrangienne d'aboutir à un algorithme de résolution par minimisation alternée sur les variables duales (Sinkhorn Algorithm). Le sujet propose un cheminement progressif et permet aux candidats d'aborder un thème très en vogue en machine learning. »
Top pièges sanctionnés
Unicité de la projection sur convexe fermé peu démontrée (Q1)-1 pts
« La première partie de la question a été, presque toujours, bien traitée, en revanche l'unicité n'a été correctement démontrée que par une moitié des candidats. »
Arguments de dimension mal posés (n=m supposé sans justification)-1 pts
« Dans (c) les candidats qui se sont lancés dans des arguments de dimension ont, pour la plupart, pris n=m : peu ont pensé à montrer directement l'inclusion réciproque. »
Confusion dimension 1 / fonctions de plusieurs variables non maîtrisée-2 pts
« Le jury imagine bien que les candidats sont peu familiers avec les fonctions de plusieurs variables mais ils devraient au minimum savoir se ramener en dimension 1, soit en fixant toutes les variables sauf une, soit en considérant un segment. »
Linéarité = convexité oubliée (Q9)-1 pts
« Au final il fallait dire qu'une fonction linéaire est convexe plutôt que se lancer dans des calculs aveugles. »
Chapitres clés à maîtriser
Source : Rapport du jury X-ENS · Maths PSI, session 2023 · PDF officiel ↗
Ressources
Téléchargements
Sujet officiel, corrigé Hadamard et rapport jury — tout en un endroit.
FAQ

