Unsupervised learning Flashcards

1
Q

Dimensionality reduction cos’è e a cosa serve? vantaggi?

A

• Comprime i dati di input riducendo la dimensionalità delle features,
conservando quante più informazioni possibili.
• Ciò riduce i tempi di elaborazione e/o memorizzazione dei dati
• Permette una migliore visualizzazione dei dati

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Metodi shallow, come faccio a fare dimentionality reduction?

A

PCA

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

PCA

A
  • Trova le direzioni ortogonali di maggior varianza
  • Cambia il sistema di coordinate
  • Cancella le features con minor varianza
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

k-means

A
  • Fisso un numero k di cluster
  • Partizionare i dati in k set minimizzando la variazione di ciascuno
  • Ciclo:
    • Calcolare i k centroidi
    • Assegnare i punti al centroide più vicino
  • Convergenza garantita anche se di un minimo locale
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

come EM migliora k-means (expectation maximization)

A
  • Usa cluster ellittici

* È un’algoritmo di clustering SOFT

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

normalizzazione, perchè è importante normalizzare le features prima di darle a k-means?

A

• La normalizzazione è necessaria in caso di dati con scale differenti

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Density estimation, esempio di modello per farlo

A
  • VAE (esplicito)

* GAN (implicito)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

mi scrive la loss del K-Means?

A

• Minimizzare la varianza di ogni set

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

K-means converge? come funziona l’algoritmo di K-means

A
  • Inizia con acluni centri di cluster iniziali
  • Itera:
    • Assegna ad ogni esempio il centro più vicino
    • Ricalcola i centri come media degli esmpi del cluster
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Come si misura la distanza tra i punti in k-means?

A

• Distanza euclidea

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

PCA, come calcolo la FPC con l’eigenvalue decomposition?

A

risposta

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

differenza tra k means e hierarchical clustering

A

• Produce una serie di cluster annidati organizzati come un albero gerarchico chiamato dendrogramma

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Quali altri problemi ci sono in unsupervised learning?

A
  • Density estimation
  • Dimensionalitu reduction
  • Clustering
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Perché in K-means ogni tanto la distanza euclidea non è la migliore scelta?

A
  • Ci possono essere dati con una grande distanza ma con una distribuzione simile
  • In quel caso conviene utilizzare cosine similarity
How well did you know this?
1
Not at all
2
3
4
5
Perfectly