"

Emploi actuel

Maître de conférences à TELECOM ParisTech
Membre associé de l'équipe INRIA Parietal
Visiting assistant professor du département de Statistiques - Université de Washington (UW)
photo2

Contact

News

  • celer: un nouveau solveur Lasso: code (github) et article correspondant "Dual Extrapolation for Faster Lasso Solvers" (pdf).
    Travail en commun avec M. Massias et A. Gramfort.
  • Notre article sur le Concomitant Lasso Hetéroscédastique accepté à AISTATS2018.
  • Je serai "visiting assistant professor" au departement de statistique de UW jusqu'à mi-août.
  • Exposé sur la notation par les pairs avec Classgrade
  • Soutenance d'HDR: 29 Juin, ENS Paris-Saclay (manuscrit, slides).
  • classgrade: un projet open source de notation par pairs principalement développé par C. Marini, bientôt fusionné avec Peeramid
  • MOOC: Fondamentaux pour le Big Data (en français)

Articles récents

TechReport
On the benefits of output sparsity for multi-label classification
E. Chzhen, C. Denis, M. Hebiri, J. Salmon
, 2017.
[bib] | [pdf]
A hierarchical Bayesian perspective on majorization-minimization for non-convex sparse regression: application to M/EEG source imaging
Y. Bekhti, F. Lucka, J. Salmon, A.Gramfort
, 2017.
[bib] | [pdf]
Journaux
A sharp oracle inequality for Graph-Slope
P. C. Bellec, J. Salmon, S. Vaiter
, Electron. J. Statist., vol.11, pp. 4851--4870, 2017.
[Python Code] | [bib] | [pdf]
Gap Safe screening rules for sparsity enforcing penalties
E. Ndiaye, O. Fercoq, A. Gramfort, J. Salmon
, JMLR, vol.18, pp. 1-33, 2017.
[bib] | [pdf]
Conférences
Dual Extrapolation for Faster Lasso Solvers
M. Massias, A. Gramfort, J. Salmon
, ICML, 2018.
[Python Code] | [bib] | [pdf]
Generalized Concomitant Multi-Task Lasso for sparse multimodal regression
M. Massias, O. Fercoq, A. Gramfort, J. Salmon
, AISTATS, 2018.
[Python Code] | [bib] | [pdf]
Powered by bibtexbrowser

Parcours


J'ai effectué un post-doctorat (Assistant Researcher) à l'université de Duke où je travaillais avec Rebecca Willett dans le laboratoire Network and Imaging Science Laboratory (NISLab).
Fin 2010, j'ai soutenu ma thèse intitulée "Agrégation d'estimateurs et méthodes à patch pour le débruitage d'images numériques". J'ai effectué celle-ci sous la direction de Dominique Picard et Erwan Le Pennec au Laboratoire de Probabilités et de Modéles Aléatoires (LPMA). Vous pouvez trouver le manuscrit dans la section article de ce site.
Le thème de ma thèse est le débruitage d'image numérique par utilisation de méthodes d'agrégation statistiques (Non Local Means, agrégation d'estimateurs, ondelettes, régression non-paramétrique).

Recherche

Vous trouverez ici mes publications et mes présentations orales. Je mets à disposition ici quelques outils pour reproduire les résultats numériques donnés dans mes travaux sur l'application de méthodes statistiques au traitement des images.

Enseignement

TELECOM ParisTech (2013-20??)
  • Cours de mesure et d'intégration
  • Cours de Machine Learning
  • Cours de probabilités avancées
  • Cours de statistiques
  • Formation continue (CES, Stages, etc.)
ENS Lyon (2013-2015)
Paris 7 - Diderot (2013-)
ATER, Paris 7 - Diderot (2010-2011)
  • Au premier semestre 2010-2011, j'étais chargé des TD de statistiques descriptives en L1 (SD1) et L2 (SD3) pour les cours de Stéphane Boucheron et A. Belaiche.
Monitorat à Paris 7 - Diderot (2007-2010)
  • Au second semestre 2009-2010 je suis chargé des TDs d'Econométrie (M53010 niveau L3 MASS). Quelques documents sont disponibles ici.
  • Au second semestre 2008-2009 je suis chargé des "Projets: informatique et algorithmique" (M9400, niveau M1) avec Pierre Alquier et Mohamed Hebiri .
    Les cours, sujets de projets et TP associés sont disponibles ici.
  • Au premier semestre 2007-2008 je suis chargé des TP MK1 (Calcul formel/Maple), pour deux classes de L1 (groupes B4 et D5). Les cours et les exercices associés sont disponibles ici.

Divers

De ce côté, vous trouverez Mon curriculum vitae et quelques liens sur les mathématiques, mes collègues et d'autres sites plus variés.