13.07.2015 Aufrufe

Diskriminatives Lernen+

Diskriminatives Lernen+

Diskriminatives Lernen+

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Aufgabe 4. (Generalized Linear Models). Man betrachte die folgende Verbundwahrscheinlichkeitsverteilungfür Paare (x,y) ∈ X × Y . Gegeben sei eine Abbildung ϕ :X ×Y → R d , die jedem Paar (x,y) einen d-dimensionalen Vektor zuordnet. Die somitdefinierte Wahrscheinlichkeitsverteilung istp(x,y) = 1 Z exp( 〈ϕ(x,y),w〉 )(〈·〉 bezeichnet das Skalarprodukt) mit einem Parametervektor w ∈ R d und mit der NormierungskonstanteZ = ∑exp ( 〈ϕ(x,y),w〉 ) .xya) Zeigen Sie, dass die Gaussche Wahrscheinlichkeitsverteilung (Einfachheit halber füreine eindimensionale Zufallsvariable x ∈ R)p(x) = √ 1](x − µ)2exp[− 2πσ 2σ 2ein Spezialfall davon ist.Hinweis: Zeigen Sie, dass der Ausdruck unter dem Exponent als Skalarprodukt 〈ϕ(x),w〉geschrieben werden kann. Wie ergeben sich daraus die Abbildung ϕ und der Parametervektorw?b) Man betrachte das überwachte Lernen des Parametervektors w nach dem Maximum-Likelihood Prinzip. Gegeben sei eine Lernstichprobe L = ( (x 1 ,y 1 ),(x 2 ,y 2 )...(x l ,y l ) ) .Leiten Sie den Gradient des log-Likelihoods ∂ ln p(L)/∂w ab. Wie ergeben sich darausdie Bedingungen für ein lokales Optimum des log-Likelihoods?c) Wir modifizieren das Modell, indem wir die ursprüngliche Formel als bedingte Wahrscheinlichkeitsverteilungverstehen, d.h. das Modell ist jetzt p(x,y) = p(x) · p(y|x) mitp(y|x) = 1Z(x) exp( 〈ϕ(x,y),w〉 )und einer beliebigen Wahrscheinlichkeitsverteilung p(x). Die Normierungskonstante istjetzt x-spezifisch, d.h.Z(x) = ∑exp ( 〈ϕ(x,y),w〉 )yund sorgt dafür, dass die bedingten Wahrscheinlichkeitsverteilungen für alle x auf 1normiert sind. Leiten Sie für diesen Fall den Gradient des log-Conditional Likelihoodsab und vergleichen Sie ihn mit b).

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!