ML Unsupervised Techniques at Johannes Kepler Universität Linz | Flashcards & Summaries

Lernmaterialien für ML Unsupervised Techniques an der Johannes Kepler Universität Linz

Greife auf kostenlose Karteikarten, Zusammenfassungen, Übungsaufgaben und Altklausuren für deinen ML Unsupervised Techniques Kurs an der Johannes Kepler Universität Linz zu.

TESTE DEIN WISSEN

PCA: express direction of largest variance w.r.t. Covariance and Eigenvectors

Lösung anzeigen
TESTE DEIN WISSEN

Direction of largest variance is the largest Eigenvalue of the Covariance matrix.

Lösung ausblenden
TESTE DEIN WISSEN

FA or PCA:

solution depends on l

Lösung anzeigen
TESTE DEIN WISSEN

FA

Lösung ausblenden
TESTE DEIN WISSEN

Idea behind PCA:

Lösung anzeigen
TESTE DEIN WISSEN

- data has largest variance along the first coordinate
- second largest data variance is along the second coordinate

Lösung ausblenden
TESTE DEIN WISSEN

The first principal component in PCA is the direction of ....

Lösung anzeigen
TESTE DEIN WISSEN

... maximum variance.

Lösung ausblenden
TESTE DEIN WISSEN

Mutual information (ICA):

Lösung anzeigen
TESTE DEIN WISSEN

Mutual information: entropy of a factorial code is larger than the entropy of the joint distribution

Lösung ausblenden
TESTE DEIN WISSEN

An unbiased estimator is said to be efficient if ...

Lösung anzeigen
TESTE DEIN WISSEN

An unbiased estimator is said to be efficient if its variance reaches the CRLB. It is efficient in the sense that it efficiently makes use of the data and extracts maximal information to estimate the parameter.

Lösung ausblenden
TESTE DEIN WISSEN

Central Limit Theorem (for Non-Gaussianity):

Lösung anzeigen
TESTE DEIN WISSEN

Central Limit Theorem: The distribution of a sum of a large number of independent random variables tends toward a Gaussian distribution.

Lösung ausblenden
TESTE DEIN WISSEN

Used Method in PCA:

Lösung anzeigen
TESTE DEIN WISSEN

PCA Method: Use variance as measure of information.

Lösung ausblenden
TESTE DEIN WISSEN

FA: Assumption on the factors:

Lösung anzeigen
TESTE DEIN WISSEN

factors y are statistically independet from each other

Lösung ausblenden
TESTE DEIN WISSEN

FA: Assumption on the noise:

Lösung anzeigen
TESTE DEIN WISSEN

Is normally distributed

Lösung ausblenden
TESTE DEIN WISSEN

FA or PCA:

explains common variances

Lösung anzeigen
TESTE DEIN WISSEN

FA

Lösung ausblenden
TESTE DEIN WISSEN

Examples for Generative Models:

Lösung anzeigen
TESTE DEIN WISSEN

factor analysis, latent variable models, Boltzmann machines, hidden Markov models

Lösung ausblenden
  • 55552 Karteikarten
  • 1020 Studierende
  • 50 Lernmaterialien

Beispielhafte Karteikarten für deinen ML Unsupervised Techniques Kurs an der Johannes Kepler Universität Linz - von Kommilitonen auf StudySmarter erstellt!

Q:

PCA: express direction of largest variance w.r.t. Covariance and Eigenvectors

A:

Direction of largest variance is the largest Eigenvalue of the Covariance matrix.

Q:

FA or PCA:

solution depends on l

A:

FA

Q:

Idea behind PCA:

A:

- data has largest variance along the first coordinate
- second largest data variance is along the second coordinate

Q:

The first principal component in PCA is the direction of ....

A:

... maximum variance.

Q:

Mutual information (ICA):

A:

Mutual information: entropy of a factorial code is larger than the entropy of the joint distribution

Mehr Karteikarten anzeigen
Q:

An unbiased estimator is said to be efficient if ...

A:

An unbiased estimator is said to be efficient if its variance reaches the CRLB. It is efficient in the sense that it efficiently makes use of the data and extracts maximal information to estimate the parameter.

Q:

Central Limit Theorem (for Non-Gaussianity):

A:

Central Limit Theorem: The distribution of a sum of a large number of independent random variables tends toward a Gaussian distribution.

Q:

Used Method in PCA:

A:

PCA Method: Use variance as measure of information.

Q:

FA: Assumption on the factors:

A:

factors y are statistically independet from each other

Q:

FA: Assumption on the noise:

A:

Is normally distributed

Q:

FA or PCA:

explains common variances

A:

FA

Q:

Examples for Generative Models:

A:

factor analysis, latent variable models, Boltzmann machines, hidden Markov models

ML Unsupervised Techniques

Erstelle und finde Lernmaterialien auf StudySmarter.

Greife kostenlos auf tausende geteilte Karteikarten, Zusammenfassungen, Altklausuren und mehr zu.

Jetzt loslegen

Das sind die beliebtesten StudySmarter Kurse für deinen Studiengang ML Unsupervised Techniques an der Johannes Kepler Universität Linz

Für deinen Studiengang ML Unsupervised Techniques an der Johannes Kepler Universität Linz gibt es bereits viele Kurse, die von deinen Kommilitonen auf StudySmarter erstellt wurden. Karteikarten, Zusammenfassungen, Altklausuren, Übungsaufgaben und mehr warten auf dich!

Das sind die beliebtesten ML Unsupervised Techniques Kurse im gesamten StudySmarter Universum

Methods & Techniques of research

Maastricht University

Zum Kurs
Method and Techniques

Maastricht University

Zum Kurs

Die all-in-one Lernapp für Studierende

Greife auf Millionen geteilter Lernmaterialien der StudySmarter Community zu
Kostenlos anmelden ML Unsupervised Techniques
Erstelle Karteikarten und Zusammenfassungen mit den StudySmarter Tools
Kostenlos loslegen ML Unsupervised Techniques