RUB » LMI » Lehre » Seminar über Theorie Maschinellen Lernens SS 2012

Seminar über Theorie Maschinellen Lernens SS 2012

LVR-Nr: 150 544
Veranstaltung: Seminar über Theorie Maschinellen Lernens (in zwei Gruppen)
Mo 14:15 - 15:45, NA 1/64
Mo 16.15 - 17.45, NA 1/64
Hinweis: Beide Seminargruppen (s. oben) sind voll.
Daher sind keine weiteren Anmeldungen möglich.
Dozent: Hans U. Simon

News

Terminverschiebung

Beachten Sie, dass die letzten beiden Vorträge auf Freitag, den 13. Juli gelegt wurden! Die Vorträge von 10-13 Uhr finden in NA 2/64 statt, die Vorträge von 14-17 Uhr in NA 3/24. (Vgl. auch mit dem unten stehenden Seminarplan.)

Kommentar

Ein Verfahren zum maschinellen Lernen ermöglicht einer Maschine (bzw. einem Computerprogramm), ihre Leistung anhand von "Erfahrung" fortlaufend zu steigern. Das Seminar behandelt Methoden zum Entwurf und zur Analyse von Lernverfahren mit einem besonderen Schwerpunkt auf der statistischen Lerntheorie. Dabei gehen Techniken aus verschiedenen Disziplinen ein wie, zum Beispiel, Statistik, Optimierungstheorie und Kombinatorik.

Wegen der hohen Teilnehmerzahl wird das Seminar in zwei Gruppen geteilt. Die ersten 6 Sitzungen haben in beiden Gruppen identische Themen. Bei den darauf folgenden 7 Sitzungen erfolgt bei den Terminen von 14:15-15:45 Uhr eine Spezialisierung auf das Thema "Boosting" und bei den Terminen von 16:15-17:45 Uhr auf die Themen "SQ-Lernmodell" und "Differentielle Privatheit". Durch diese thematische Aufteilung wird es leichter eine hohe Zahl von Themen für Bachelorarbeiten zu kreieren.

Im Anschluss an das Seminar werden Themen sowohl für Bachelor- als auch für Masterarbeiten vergeben.

Vorraussetzungen

Bei den Studierenden im Bachelor-Studienabschnitt werden die Kenntnisse der Grundvorlesungen Mathematik erwartet wie sie in den ersten drei Semestern vermittelt werden. Bei den Studierenden im Master-Studienabschnitt werden die im Bachelor-Studienabschnitt erworbenen Kenntnisse in Mathematik erwartet.

Literatur

Michael J. Kearns and Umesh V. Vazirani, An Introduction to Computational Learning Theory, The MIT Press, 1994. In der Mathe-Bibliothek stehen zwei Exemplare dieses Buches. Eines davon ist ein Präsenzexemplar.
Hinzu kommen mehrere Originalarbeiten zu den Themen "Boosting", "SQ-Lernmodell" und "Differentielle Privatheit", die unmittelbar an die jeweiligen Referentinnen und Referenten verteilt werden.

Zeitplan für die Sitzungen von 14:15-15:45 Uhr

02.04.2012 Kapitel 1 aus Kearns/Vazirani: The Probably Approximately Correct Learning Model (Teil 1) Ann-Christin Grüter und Katja-Isabel Malewski
16.04.2012 Kapitel 1 aus Kearns/Vazirani: The Probably Approximately Correct Learning Model (Teil 2) Ann-Christin Grüter und Katja-Isabel Malewski
23.04.2012 Kapitel 2 aus Kearns/Vazirani: Occam's Razor (Teil 1) Vera Bracht und Katharina Pallentin
30.04.2012 Kapitel 2 aus Kearns/Vazirani: Occam's Razor (Teil 2) Vera Bracht und Katharina Pallentin
07.05.2012 Kapitel 3 aus Kearns/Vazirani: The Vapnik-Chervonenkis Dimension (Teil 1) Jörn Heitbreder und Filipp Valovich
14.05.2012 Kapitel 3 aus Kearns/Vazirani: The Vapnik-Chervonenkis Dimension (Teil 2) Jörn Heitbreder und Filipp Valovich
21.05.2012 Originalarbeit (Freund und Schapire, JCSS, 1997) ADABOOST (Teil 1) Sonja Egbers und Christian Schuster
04.06.2012 Originalarbeit (Freund und Schapire, JCSS 1997) ADABOOST (Teil 2) Sonja Egbers und Christian Schuster
11.06.2012 Originalarbeit (Schapire et al., Annals of Statistics, 1998) Boosting von Randabständen (Teil 1) Klaus Manuel und Uwe Packeiser
18.06.2012 Originalarbeit (Schapire et al., Annals of Statistics, 1998) Boosting von Randabständen (Teil 2) Klaus Manuel und Uwe Packeiser
25.06.2012 Originalarbeit (Freund und Schapire, COLT, 1996) Spieltheorie, Online-Vorhersagen und Boosting Christoph Ries
13.07.2012, ab 14:00 Uhr Originalarbeit (Freund et al., JMLR, 2003) Erlernen von Rangordnungen mit Boosting Louisa Joppich und Sandra Pasucha

Zeitplan für die Sitzungen von 16:15-17:45 Uhr

02.04.2012 Kapitel 1 aus Kearns/Vazirani: The Probably Approximately Correct Learning Model (Teil 1) Sarah Gellhaus und Janina Kost
16.04.2012 Kapitel 1 aus Kearns/Vazirani: The Probably Approximately Correct Learning Model (Teil 2) Sarah Gellhaus und Janina Kost
23.04.2012 Kapitel 2 aus Kearns/Vazirani: Occam's Razor (Teil 1) Johanna Kubitza und Julia Straßburger
30.04.2012 Kapitel 2 aus Kearns/Vazirani: Occam's Razor (Teil 2) Johanna Kubitza und Julia Straßburger
07.05.2012 Kapitel 3 aus Kearns/Vazirani: The Vapnik-Chervonenkis Dimension (Teil 1) Viola Engelke und Michael Piechatzek
14.05.2012 Kapitel 3 aus Kearns/Vazirani: The Vapnik-Chervonenkis Dimension (Teil 2) Viola Engelke und Michael Piechatzek
21.05.2012 Originalarbeit (Kearns, JACM, 1998) Verrauschte Daten und Lernen im SQ-Modell (Teil 1) Daniel Pasler
04.06.2012 Originalarbeit (Kearns, JACM, 1998) Verrauschte Daten und Lernen im SQ-Modell (Teil 2) Thomas Bausch
11.06.2012 Originalarbeiten (Yang, JCSS, 2005 ; Simon, ALT, 2006) Anfragekomplexität im SQ-Modell Monika Rütter
18.06.2012 Originalarbeit (Dwork et al., LNCS 3876, 2006) Differentielle Privatheit und Probabilistische Funktionen Karla Nesiu
25.06.2012 Originalarbeit (McSherry und Talwar, FOCS, 2006) Differentielle Privatheit und Mechanismendesign Guido Knips
13.07.2012 ab 10:00 Uhr Originalarbeit (Kasiviswanathan et al., SIAM J. Comp., 2011) Differentielle Privatheit und Algorithmisches Lernen Robert Rumpelt und Henrik Sie