Pascal Germain, Researcher in Machine Learning

This page is deprecated! My new webage is here.


Dans un premier temps, ce mémoire présente un théorème PAC-Bayes général, duquel il est
possible d'obtenir simplement plusieurs bornes PAC-Bayes connues. Ces bornes permettent de calculer
une garantie sur le risque d'un classificateur à partir de ses performances sur l'ensemble de
données d'entraînement. Par l'interprétation du comportement de deux bornes PAC-Bayes, nous
énonçons les caractéristiques propres aux classificateurs qu'elles favorisent. Enfin, une
spécialisation de ces bornes à la famille des classificateurs linéaires est détaillée.

Dans un deuxième temps, nous concevons trois nouveaux algorithmes d'apprentissage automatique basés
sur la minimisation, par la méthode de descente de gradient conjugué, de l'expression mathématique
de diverses formulations des bornes PAC-Bayes. Le dernier algorithme présenté utilise une fraction
de l'ensemble d'entraînement pour l'acquisition de connaissances a priori. Ces algorithmes sont
aptes à construire des classificateurs exprimés par vote de majorité ainsi que des classificateurs
linéaires exprimés implicitement à l'aide de la stratégie du noyau. Finalement, une étude empirique
élaborée compare les trois algorithmes entre eux et révèle que certaines versions de ces algorithmes
construisent des classificateurs compétitifs avec ceux obtenus par AdaBoost et les SVM. 

[ Link to text file ]

<< Go back.