DOMANDE PROF Flashcards

1
Q

ALGORITMO DI CANNY

A

L’algoritmo di Canny comprende diversi passaggi principali:

-Riduzione del rumore: L’immagine di input viene sottoposta a un processo di filtraggio per ridurre il rumore, che può interferire con l’individuazione dei contorni. Spesso viene utilizzato un filtro Gaussiano per questo scopo.

-Calcolo del gradiente: Viene calcolato il gradiente dell’immagine, che misura le variazioni di intensità dei pixel nell’immagine. Il gradiente fornisce informazioni sulla direzione e l’intensità dei cambiamenti di intensità dei pixel e aiuta a individuare i bordi.

-Suppressione dei non-maximum: Viene applicata la soppressione dei non-maximum per restringere i contorni ai punti di massima risposta del gradiente lungo la direzione del bordo. Questo passaggio elimina i punti che non sono localmente massimi nel gradiente.

-Isteresi della soglia: Questo è un passaggio critico nell’algoritmo di Canny. L’immagine viene suddivisa in pixel di bordo deboli e forti utilizzando una soglia. I pixel con una forte risposta al gradiente vengono considerati come pixel di bordo sicuri, mentre i pixel con una risposta al gradiente inferiore ma ancora sopra una soglia inferiore vengono considerati come pixel di bordo deboli. I pixel di bordo deboli vengono mantenuti solo se sono collegati a un pixel di bordo sicuro, altrimenti vengono eliminati. Questo processo aiuta a connettere i segmenti di bordo interrotti e a ottenere contorni più completi.

L’algoritmo di Canny produce come output un’immagine binaria in cui i pixel di bordo sono evidenziati come bianchi e il resto dell’immagine è nero.

L’algoritmo di Canny è noto per la sua capacità di individuare con precisione i contorni, ridurre al minimo il rumore e produrre contorni sottili. È ampiamente utilizzato in diverse applicazioni di elaborazione delle immagini, come il riconoscimento di oggetti, la segmentazione delle immagini e l’estrazione di caratteristiche

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Cos’è il gradiente?

A

Nel contesto dell’elaborazione delle immagini, il gradiente rappresenta le variazioni di intensità dei pixel all’interno di un’immagine.
Viene calcolato per identificare i cambiamenti significativi di intensità che corrispondono ai contorni o ai bordi presenti nell’immagine.

Per calcolare la direzione e la magnitudo del gradiente di un’immagine, è necessario calcolare la derivata della funzione di immagine rispetto alla posizione in due direzioni, come ad esempio lungo l’asse x e lungo l’asse y. La direzione del gradiente è quindi l’angolo tra l’asse x e il vettore gradiente. La magnitudo del gradiente è la lunghezza del vettore gradiente.
FORMULE

Il risultato del calcolo del gradiente è costituito da due componenti principali: la direzione del gradiente e la sua intensità. La direzione del gradiente indica la direzione lungo la quale avviene il cambiamento di intensità massimo, mentre l’intensità del gradiente rappresenta la quantità di variazione di intensità in quella direzione.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Come funziona il filtro spaziale-media?

A

Tale filtro non differisce dal concetto di media aritmetica. Quindi ogni pixel dell’immagine destinazione
viene sostituito con la media dei pixel appartenenti ad un’area ben definita dell’immagine. Piuttosto
che prendere soltanto il pixel (x, y) nell’immagine input, viene preso la media di tutti i pixel connessi
con il pixel (x, y). Effettuando la media (con la divisione per 9) ottenendo il filtro di destinazione

viene effettuato per eliminare rumore prodotto da un determinato motivo e per ricondurre l’immagine ad una qualità migliore.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Come funziona il filtro spaziale-media adattiva?

A

La media adattiva va a risolvere varie problematiche della media, come la confusione dei contorni.
Ogni qual volta essa viene utilizzata effettua un confronto tra il pixel (x, y) e tutti quanti i pixel che sono nel suo intorno. In presenza di piccole variazioni si applica la media, ma in presenza di grandi variazioni (in base ad una soglia T) si lasciano invariati i pixel di riferimento. Essa lavora sui bordi.

Applicando un filtro media sempre più grande, l’immagine tende a sfocarsi e perdere rumore, ma anche dettagli.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Come funziona il filtro spaziale-mediana?

A

Esso corrisponde esattamente al concetto di mediana statistica per il quale si considerano i pixel di una regione, li si ordina in maniera crescente e poi ci si posiziona sul valore centrale.
La mediana è proprio tale valore centrale. Rispetto alla media, la mediana non viene influenzata dalle
code, ovvero il valore centrale non viene condizionato particolarmente dalla presenza di significativi
cambiamenti agli estremi, cosa che avviene nella media

La Media presenta una eccessiva velatura (Blurring) al crescere della maschera e delle iterazioni con conseguente perdita dei dettagli, essa però preserva, con la versione adattive, le forme (scalini).

La Mediana ha una riduzione del rumore (noise reduction) senza eccessiva perdita di dettagli
(Blurring limitato), ma non preserva le forme (scalini).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Come funziona il filtro gaussiano?

A

Il funzionamento del Filtro Gaussiano è simile a quello del filtro mediana con la differenza che il contributo di ciascun pixel limitrofo ha un peso diverso, definito dalla distribuzione spaziale della gaussiana

Si parte dal presupposto che i pixel in prossimità della zona centrale, sono quelli più importanti.
Quindi se si vuol posizionare la maschera su un pixel (x, y), non si deve assegnare poi lo stesso peso a tutti gli altri pixel ma si cerca di concentrare la maggior parte del peso in prossimità del pixel (x, y), e progressivamente diminuire il peso dei pixel man mano che ci si allontana dal centro.
La somma di tutti i pesi sarà sempre uguale a uno. In prossimità del pixel di riferimento, si assegnerà un valore maggiore, in quanto c’è più probabilità che essi appartengono al pixel kernel.

Quindi possono essere costruiti nuovi filtri che sono dei Filtri Media pesati.
Mentre prima il peso assegnato dalla media era uguale per tutti quanti, ora si adopera una selezione, più ci si è vicini alla posizione (x, y) maggiore sarà il peso in quanto maggiore sarà la probabilità che quel pixel appartenga alla regione di interesse, più ci si allontana dal pixel (x, y) maggiore sarà la probabilità di non appartenere alla regione di interesse e quindi si cerca di contaminare il meno possibile la trasformazione.
Con un Filtro gaussiano si riesce ad eliminare le zone di rumore e a preservare gli scalini, proprio perché in prossimità di essi i pixel otterranno una distribuzione di pesi differenziata.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Come funziona il filtro SUSAN?

A

permane l’idea di Filtro Gaussiano dove però i pesi nonvengono stabiliti a priori, come fatto in precedenza, ma in questo caso i pesi vengono calcolati run-time.
Quindi viene applicata la maschera all’immagine e si va a controllare quali pixel ricadono nella stessa area del pixel centrale. Si assegneranno pesi alti a tutti i pixel che appartengono all’aerea del pixel centrale e si tenderà a dare peso minore ai pixel che si trovano più in lontananza rispetto al centro.

Questo calcolo lo si effettua per mezzo della formula seguente:
FORMULA
in cui I(r) è il valore di intensità dei pixel all’interno della maschera, I(r0) quello del nucleo, t è un valore di soglia sull’intensità (fattore di normalizzazione) e c(r, r0) rappresenta il peso che il pixel in esame ha nel calcolo della media. Più i pixel sono diversi, più il peso va verso 0.
Oltre al peso dovuto alla funzione c(r, r0), per effettuare il filtraggio del rumore, si utilizza una funzione di tipo gaussiano. Se l’area dell’USAN è nulla il valore dell’intensità del pixel in esame è calcolato applicando il filtro mediano descritto precedentemente. Quindi si avrà ancora un filtro gaussiano, ma sarà una maschera in cui i pesi saranno calcolati di volta in volta sulla base dell’immagine. Il vantaggio di questo filtro è che i pesi dipenderanno dall’immagine e quindi non sarà un filtro statico costruito in partenza. Il contro di questo filtro è l’onerosità in termini computazionali

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Cos’è il Laplaciano?

A

Il Laplaciano è una rappresentazione (implementazione) della derivata seconda, che a differenza del gradiente, è caratterizzato dall’avere un pixel centrale positivo, le direzioni principali con valori negativi, e gli altri posti uguali a zero.
il Laplaciano è un operatore che viene utilizzato per rilevare i dettagli di alta frequenza o i bordi nelle immagini. Viene spesso applicato per migliorare la nitidezza delle immagini o per evidenziare le discontinuità di intensità.

L’operatore Laplaciano di una funzione bidimensionale f(x, y) viene definito come la somma delle seconde derivate parziali rispetto a x e y. In un sistema di coordinate cartesiane, il Laplaciano di f(x, y) è espresso come:

Δf = ∂²f/∂x² + ∂²f/∂y²

Nel contesto dell’elaborazione delle immagini, l’operatore Laplaciano può essere applicato direttamente all’immagine per ottenere una nuova immagine chiamata “mappa del Laplaciano”. Questa mappa evidenzia le regioni dell’immagine in cui l’intensità varia rapidamente o dove sono presenti bordi.

. Per calcolare il Laplaciano, prendiamo ogni pixel dell’immagine e sommiamo i valori dei pixel che lo circondano (sopra, sotto, a sinistra e a destra). Moltiplichiamo il valore del pixel centrale per 4 e sottraiamo la somma dei pixel circostanti.

Il risultato che otteniamo ci indica quanto l’intensità dei pixel cambia in quella posizione. Se il valore del Laplaciano è alto, significa che c’è un bordo o un dettaglio significativo in quella zona.

Quindi, applicando questo calcolo a tutti i pixel dell’immagine, otteniamo una mappa che evidenzia i bordi o i dettagli importanti. Questo può aiutarci a migliorare la nitidezza dell’immagine o a individuare parti rilevanti

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Cos’è la trasformata di Fourier? + FORMULE

A

a

La trasformata di Fourier è uno strumento matematico che permette di analizzare un segnale nel dominio delle frequenze anziché nel dominio del tempo. In altre parole, permette di scomporre un segnale complesso in una combinazione di sinusoidi di diverse frequenze.

Immagina di avere un segnale nel dominio del tempo, come ad esempio una forma d’onda audio. Questo segnale può essere rappresentato come una combinazione di diverse frequenze. La trasformata di Fourier ci consente di identificare queste frequenze e determinare l’ampiezza e la fase di ciascuna di esse.

Il processo di trasformata di Fourier può essere diviso in due parti: la trasformata diretta e la trasformata inversa. La trasformata diretta converte un segnale dal dominio del tempo al dominio delle frequenze, mentre la trasformata inversa fa il contrario, cioè converte il segnale dal dominio delle frequenze al dominio del tempo

FORMULA SLIDE
La formula della trasformata di Fourier dipende dalla convenzione che si utilizza, ma la formulazione più comune è la seguente:

Data una funzione nel dominio del tempo f(t), la sua trasformata di Fourier F(ω) nel dominio delle frequenze è data dalla seguente equazione:

F(ω) = ∫[da] f(t) * e^(-iωt)

F(ω) rappresenta la funzione nel dominio delle frequenze, che dipende dalla variabile ω (omega), che rappresenta la frequenza.
f(t) è la funzione originale nel dominio del tempo, che dipende dalla variabile t, che rappresenta il tempo.
∫[da] indica l’integrazione rispetto alla variabile di integrazione a, che può essere sostituita con t nel contesto della trasformata di Fourier.
e^(-iωt) rappresenta la funzione esponenziale complessa, dove e è il numero di Nepero (2.71828…) ed i è l’unità immaginaria (√(-1)).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Cosa dice il teorema di convoluzione? + Formule

A

Il teorema di convoluzione stabilisce che quando abbiamo due domini in relazione, ovvero dominio spazio-tempo e frequenze, una moltiplicazione tra due funzioni in un dominio implica una convoluzione nell’altro dominio, e viceversa. Questo permette di stabilire una relazione tra le operazioni nei diversi domini

Nel dominio del tempo:
Se abbiamo due funzioni nel dominio del tempo, chiamate g(t) e h(t), il loro prodotto di convoluzione è definito come:

(g * h)(t) = ∫[da] g(a) * h(t - a)

Dove ∫[da] rappresenta l’integrale rispetto alla variabile a( una variabile di integrazione). Questa formula rappresenta il risultato di convolvere g(t) e h(t) in un certo istante di tempo t.

Nel dominio delle frequenze:
Se applichiamo la trasformata di Fourier sia a g(t) che a h(t), ottenendo rispettivamente G(ω) e H(ω) nel dominio delle frequenze, allora il prodotto di convoluzione nel dominio del tempo corrisponde a una semplice moltiplicazione nel dominio delle frequenze:

Fourier{(g * h)(t)} = G(ω) * H(ω)

Dove * rappresenta l’operazione di moltiplicazione nel dominio delle frequenze.

Questo significa che, per calcolare il prodotto di convoluzione di due funzioni nel dominio del tempo, possiamo semplicemente prendere le loro trasformate di Fourier, moltiplicare i loro spettri di frequenza e quindi applicare la trasformata inversa di Fourier per ottenere il risultato nel dominio del tempo.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Perchè usare un dominio invece di un altro?

A

L’utilizzo di un dominio specifico, come il dominio del tempo o il dominio delle frequenze, dipende dal tipo di analisi o elaborazione che si desidera effettuare sui dati o sui segnali. Ogni dominio offre vantaggi e strumenti specifici per affrontare determinati problemi.

Ecco alcune ragioni per cui si preferisce utilizzare un dominio rispetto a un altro:

Dominio del tempo:
Il dominio del tempo è spesso utilizzato per l’analisi e la rappresentazione di segnali nel loro aspetto temporale. È utile per valutare l’evoluzione di un segnale nel corso del tempo, rilevare eventi transitori e valutare la forma d’onda in relazione al tempo.
Nel dominio del tempo, è più facile comprendere l’andamento temporale di un segnale e valutare la relazione causa-effetto tra diverse componenti del segnale.
Ad esempio, l’analisi del dominio del tempo è comune nell’elaborazione audio per valutare l’ampiezza, la durata e la forma d’onda di un suono.

Dominio delle frequenze:
Il dominio delle frequenze è utile per analizzare le componenti di un segnale in termini di frequenze e ampiezze. Questo dominio offre informazioni sulle diverse componenti di un segnale e sulla loro distribuzione spettrale.
Nel dominio delle frequenze, è possibile identificare le frequenze dominanti, le armoniche e le caratteristiche spettrali di un segnale.
L’analisi nel dominio delle frequenze è spesso utilizzata nell’elaborazione dei segnali per applicare filtri, rilevare modulazioni, comprimere i dati e valutare la presenza di rumore o interferenze.

La scelta del dominio dipende dalle specifiche esigenze dell’applicazione. Ad esempio, se si desidera eliminare il rumore da un segnale audio, potrebbe essere più efficace utilizzare tecniche di filtraggio nel dominio delle frequenze. D’altra parte, se si desidera analizzare l’andamento temporale di un segnale, il dominio del tempo potrebbe essere più appropriato.

In molti casi, l’analisi viene effettuata in entrambi i domini, poiché combinare le informazioni provenienti dai due domini può fornire una visione più completa e dettagliata del segnale o dei dati in esame

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Cos’è il campionamento?(FOURIER)

A

il campionamento si riferisce alla conversione di un segnale continuo nel dominio del tempo in una sequenza discreta di valori, ciascuno rappresentante il valore del segnale in un preciso istante di tempo.

Durante il campionamento, il segnale analogico viene campionato ad una frequenza costante, chiamata frequenza di campionamento. Questa frequenza determina quanti campioni vengono presi al secondo e influenza la fedeltà con cui il segnale originale può essere rappresentato. La frequenza di campionamento viene espressa in unità di Hertz (Hz) e comunemente indicata come “samples per second” o “sampling rate”.

Il processo di campionamento può essere compreso meglio con un esempio pratico. Immaginiamo di avere un segnale audio analogico, come una voce umana. Per digitalizzare questo segnale, è necessario campionarlo. Ad esempio, se utilizziamo una frequenza di campionamento di 44.1 kHz (44.100 campioni al secondo), prenderemo un campione del segnale ogni 1/44.100 secondi, corrispondente a circa 22.7 microsecondi. Ogni campione rappresenterà il valore del segnale audio in quel preciso istante di tempo.

È importante notare che il teorema del campionamento di Nyquist-Shannon stabilisce che la frequenza di campionamento deve essere almeno il doppio della frequenza massima del segnale per evitare la perdita di informazioni o l’effetto dell’aliasing. Questo è noto come il criterio di Nyquist e assicura che il segnale originale possa essere correttamente ricostruito dal suo campionamento discreto.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Cos’è il teorema del campionamento?

A

Il teorema del campionamento, noto anche come teorema di Nyquist-Shannon, è un principio fondamentale nell’elaborazione dei segnali che stabilisce una condizione necessaria per evitare l’aliasing e consentire la corretta ricostruzione di un segnale analogico a partire dai suoi campioni discreti.

Il teorema afferma che per evitare l’aliasing, la frequenza di campionamento deve essere almeno il doppio della frequenza massima presente nel segnale analogico. In altre parole, la frequenza di campionamento deve essere superiore al doppio della massima frequenza del segnale che si desidera catturare

aliasing(è il fenomeno per il quale due segnali analogici diversi possono diventare indistinguibili una volta campionati)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Algoritmo Viola-Jones

A

L’algoritmo di Viola-Jones è un popolare algoritmo utilizzato per il rilevamento di oggetti, in particolare per il rilevamento dei volti.

L’algoritmo di Viola-Jones utilizza una tecnica chiamata “AdaBoost” per selezionare in modo efficiente e accurato le caratteristiche rilevanti nelle immagini.

Preparazione del training set: Per addestrare l’algoritmo, è necessario un set di immagini etichettate che contengono gli oggetti che si desidera rilevare, ad esempio volti. Questo set di immagini viene utilizzato per addestrare il classificatore.

Creazione delle feature integrali: Le immagini vengono convertite in una rappresentazione più compatta chiamata “feature integrali”. Le feature integrali semplificano il calcolo delle caratteristiche nelle immagini e riducono il tempo computazionale complessivo.

Selezione delle caratteristiche: Viene applicata una serie di caratteristiche ad ogni finestra dell’immagine per determinare se la caratteristica è rilevante o meno per il riconoscimento dell’oggetto desiderato. Le caratteristiche possono essere rettangolari e comprendono ad esempio differenze di intensità tra le regioni di un’immagine.

Addestramento del classificatore: Utilizzando l’algoritmo di AdaBoost, il classificatore viene addestrato iterativamente. Durante ogni iterazione, vengono selezionate le caratteristiche più informative per il rilevamento dell’oggetto. Successivamente, il classificatore viene allenato per assegnare un peso maggiore agli esempi di addestramento classificati erroneamente e un peso minore agli esempi classificati correttamente.

Creazione del classificatore forte: Dopo un numero specificato di iterazioni, viene creato un “classificatore forte” combinando un insieme di “classificatori deboli”. Ogni classificatore debole ha una precisione leggermente superiore al caso casuale, ma insieme formano un classificatore molto più potente.

Rilevamento dell’oggetto: Una volta creato il classificatore forte, viene utilizzato per scansionare l’immagine di input alla ricerca dell’oggetto desiderato, ad esempio un volto. L’immagine viene analizzata utilizzando finestre di diverse dimensioni per coprire diverse scale e posizioni dell’oggetto all’interno dell’immagine. Le caratteristiche rilevanti vengono calcolate utilizzando le feature integrali e passate al classificatore per determinare se la finestra contiene l’oggetto o meno.

Selezione dei risultati: Dopo il rilevamento degli oggetti, vengono applicate tecniche di post-elaborazione per selezionare i risultati rilevanti e ridurre i falsi positivi.

L’algoritmo di Viola-Jones è stato ampiamente utilizzato per il rilevamento dei volti, ma può essere adattato anche per il rilevamento di altri oggetti come occhi, mani, veicoli, ecc. La sua efficacia deriva dalla combinazione di caratteristiche efficienti, algoritmi di apprendimento automatico e ottimizzazioni che consentono un rilevamento rapido e accurato degli oggetti in tempo reale.

O(MNT) dove M sono i filtri, N esempi e T threshold

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Cos’è una immagine integrale?

A

Un’immagine integrale è una rappresentazione compatta di un’immagine utilizzata per calcolare rapidamente la somma dei valori dei pixel all’interno di una determinata regione rettangolare. Questa rappresentazione è ampiamente utilizzata in diversi algoritmi di elaborazione delle immagini, come il riconoscimento facciale utilizzando l’algoritmo di Viola-Jones.

L’idea alla base dell’immagine integrale è quella di calcolare la somma cumulativa dei valori dei pixel partendo dall’angolo in alto a sinistra dell’immagine e procedendo verso il basso e verso destra. Ogni elemento dell’immagine integrale corrisponde alla somma di tutti i valori dei pixel sopra di esso e a sinistra di esso, inclusi.

L’utilizzo dell’immagine integrale consente di ridurre il tempo di calcolo necessario per eseguire operazioni come la convoluzione, la correzione del contrasto e la ricerca di caratteristiche all’interno di una regione specifica, migliorando l’efficienza degli algoritmi di elaborazione delle immagini.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Cos’è e come funziona il PCA?

A

Il PCA (Principal Component Analysis) è una tecnica ampiamente utilizzata per il riconoscimento facciale. Nel contesto del face recognition, l’obiettivo del PCA è quello di ridurre la dimensionalità dei dati facciali mantenendo le informazioni discriminanti necessarie per distinguere tra diverse persone.

Ecco come funziona il PCA per il face recognition:

Raccolta dei dati facciali: Per addestrare il PCA, è necessario un set di immagini facciali rappresentative delle diverse persone da riconoscere. Questo set di immagini viene utilizzato per creare il modello PCA.

Preprocessing delle immagini facciali: Le immagini facciali vengono sottoposte a un preprocessing per rimuovere il rumore e standardizzare le condizioni di illuminazione, posizione e dimensione. Ad esempio, le immagini possono essere allineate in base ai punti di riferimento come gli occhi o la bocca, e poi ridimensionate a dimensioni uniformi.

Creazione del modello PCA: Utilizzando il set di immagini facciali preelaborate, viene calcolata la media delle immagini facciali, che rappresenta il volto medio del dataset. Successivamente, viene calcolata la matrice di covarianza delle immagini facciali rispetto alla media. Poi, si esegue la decomposizione della matrice di covarianza per ottenere gli autovettori e gli autovalori associati.

Selezione delle componenti principali: Gli autovettori ottenuti dalla decomposizione rappresentano le direzioni di massima varianza nei dati facciali. Le componenti principali vengono selezionate in base agli autovalori corrispondenti. Di solito, le prime N componenti principali che catturano la maggior parte della varianza vengono scelte per ridurre la dimensionalità dei dati.

Rappresentazione facciale ridotta: Ogni immagine facciale viene proiettata sullo spazio delle componenti principali, ottenendo una rappresentazione ridotta della faccia in termini dei valori delle componenti principali. Questa rappresentazione ridotta può essere considerata come un vettore di caratteristiche che descrive la faccia in modo compatto.

Riconoscimento facciale: Per riconoscere una faccia sconosciuta, viene applicata la stessa procedura di proiezione sullo spazio delle componenti principali. Quindi, si confronta la rappresentazione ridotta della faccia sconosciuta con le rappresentazioni ridotte delle facce nel database. La corrispondenza può essere determinata utilizzando misure di distanza o algoritmi di classificazione.

Il PCA per il face recognition è un metodo efficiente per ridurre la dimensionalità dei dati facciali e catturare le informazioni più discriminanti. Tuttavia, potrebbe non essere in grado di affrontare alcune variazioni come l’illuminazione, l’espressione facciale e l’orientamento della testa. Pertanto, spesso viene utilizzato come passo preliminare seguito da altre tecniche più avanzate per migliorare le prestazioni del riconoscimento facciale.

17
Q

Cos’è il CBIR?

A

CBIR è l’acronimo di Content-Based Image Retrieval, che in italiano significa “recupero delle immagini basato sul contenuto”. Si tratta di una tecnica utilizzata per cercare immagini all’interno di un database in base alle loro caratteristiche visive, come colore, forma, texture e altri elementi del contenuto visivo, anziché basarsi su metadati o etichette associate alle immagini.

L’obiettivo del CBIR è consentire agli utenti di cercare e recuperare immagini in base al loro contenuto visivo, piuttosto che utilizzando parole chiave o descrizioni testuali. Questo è particolarmente utile quando le informazioni testuali associate alle immagini non sono disponibili o non sono affidabili.

Il processo di CBIR coinvolge diversi passaggi:

Estrazione delle caratteristiche: Le caratteristiche visive rilevanti vengono estratte dalle immagini nel database. Queste caratteristiche possono includere il colore, la forma, la texture e altre proprietà visive delle immagini.

Creazione dell’indice: Le caratteristiche estratte vengono utilizzate per creare un indice o una rappresentazione compatta delle immagini nel database. L’indice consente di effettuare ricerche rapide ed efficienti.

Query delle immagini: Gli utenti inviano una query, che può essere un’immagine di esempio o una descrizione testuale delle caratteristiche desiderate, al sistema CBIR.

Corrispondenza e ranking: Il sistema CBIR confronta la query con l’indice delle immagini nel database e determina le immagini più simili in base alle caratteristiche visive. Le immagini vengono quindi classificate in base al grado di similarità e vengono restituite all’utente in ordine di rilevanza.

Visualizzazione dei risultati: I risultati della ricerca vengono presentati all’utente, che può esaminare le immagini recuperate e selezionare quelle che soddisfano meglio le sue esigenze.

Il CBIR viene utilizzato in diversi ambiti, tra cui la gestione delle immagini, la sorveglianza video, l’archiviazione delle immagini mediche e molte altre applicazioni in cui è necessario recuperare immagini basandosi sul loro contenuto visivo.

18
Q

Cos’è il teorema di parseval?

A

Il teorema di Parseval è un importante risultato matematico che stabilisce una relazione tra il dominio del tempo e il dominio delle frequenze di un segnale.

In termini semplici, il teorema di Parseval afferma che l’energia totale di un segnale nel dominio del tempo è uguale all’energia totale del suo spettro nel dominio delle frequenze.

Formalmente, se consideriamo un segnale nel dominio del tempo f(t) e il suo spettro corrispondente nel dominio delle frequenze F(ω), il teorema di Parseval può essere espresso come segue:

∫ |f(t)|^2 dt = (1/2π) ∫ |F(ω)|^2 dω

Dove:

|f(t)|^2 rappresenta il modulo al quadrato del segnale nel dominio del tempo.
|F(ω)|^2 rappresenta il modulo al quadrato dello spettro del segnale nel dominio delle frequenze.
∫ indica l’integrale che viene eseguito sull’intervallo appropriato.

In altre parole, l’integrale dell’energia del segnale al quadrato nel dominio del tempo è uguale all’integrale dell’energia del suo spettro al quadrato nel dominio delle frequenze, scalato da un fattore di (1/2π).

Il teorema di Parseval è ampiamente utilizzato nell’analisi dei segnali e nelle applicazioni della trasformata di Fourier

19
Q

Come si misurano le prestazioni di un CBIR?

A

Le prestazioni di un Content-Based Image Retrieval (CBIR) system possono essere valutate utilizzando diverse misure o metriche, che riflettono la qualità e l’efficacia del sistema nel recuperare le immagini desiderate in base al loro contenuto visivo. Ecco alcune delle metriche comuni utilizzate per valutare le prestazioni di un CBIR:

Precisione (Precision): La precisione misura la frazione di immagini recuperate che sono rilevanti rispetto al totale delle immagini recuperate. Indica quanto il sistema è in grado di recuperare solo le immagini corrispondenti alla richiesta dell’utente.

Recall (Recall): Il recall misura la frazione di immagini rilevanti che sono state recuperate rispetto al totale delle immagini rilevanti presenti nel database. Indica quanto il sistema è in grado di recuperare tutte le immagini corrispondenti alla richiesta dell’utente.

F-measure: L’F-measure è una misura che combina precisione e recall in un unico valore. È una media ponderata delle due misure e fornisce una valutazione complessiva delle prestazioni del sistema.

Queste sono solo alcune delle metriche comunemente utilizzate per valutare le prestazioni di un CBIR system. La scelta delle metriche dipende dall’applicazione specifica e dagli obiettivi del sistema

20
Q

Cos’è l’algoritmo di Daugman?

A

L’algoritmo di Daugman è un metodo utilizzato per l’elaborazione delle immagini dell’iride e l’estrazione delle caratteristiche distintive per l’identificazione biometrica.

L’algoritmo di Daugman si basa sull’idea che il modello dell’iride possa essere rappresentato da una serie di cerchi concentrici chiamati “anelli”.
L’algoritmo sfrutta la caratteristica unica del modello dell’iride, composta da linee, solchi e pigmentazione, per individuare i bordi degli anelli.

L’approccio utilizza una sorta di rilevatore di bordi circolari per localizzare sia la pupilla che l’iride (operatore integro-differenziale). L’operatore sfrutta la convoluzione dell’immagine con una funzione di smoothing gaussiana con centro r0 e deviazione standard s.
FORMULA
L’operatore cerca un percorso circolare lungo il quale la variazione dei pixel è massimizzata, variando il centro r e il raggio (x0, y0) di un contorno circolare candidato.
FORMULA 2
Quando il cerchio candidato ha lo stesso raggio e centro dell’iride, l’operatore dovrebbe fornire un picco di rilevamento

La pupilla è più scura rispetto all’iride che a sua volta è più scura della sclera: si determina
una variazione significativa di luminosità nel passaggio da pupilla a iride e da iride a sclera;
2. La pupilla e l’iride hanno forma circolare;
Ø Daugman, sfruttando 1 e 2, genera una serie di circonferenze con un raggio incrementale ed
un centro prefissato, riducendo la localizzazione dell’iride e della pupilla ad un problema di
ottimizzazione: si individua (integrale curvilineo) la direzione che comporta il maggior
incremento di luminosità: il massimo si raggiungerà quando si è individuato il centro ed il
raggio della pupilla o dell’iride.

Ecco una panoramica dei passaggi principali dell’algoritmo di Daugman:

Preprocessing: L’immagine dell’iride viene sottoposta a una serie di operazioni di preprocessing per migliorare la qualità dell’immagine, come la riduzione del rumore e l’equalizzazione dell’istogramma.

Segmentazione dell’iride: Viene individuata la regione dell’iride all’interno dell’immagine. Questo viene fatto utilizzando tecniche di segmentazione che identificano il bordo esterno dell’iride e il bordo interno della pupilla.

Normalizzazione: L’immagine dell’iride viene normalizzata per compensare variazioni di scala, rotazione e illuminazione. Questo passaggio assicura che le caratteristiche dell’iride siano rappresentate in modo coerente.

Estrazione degli anelli: L’immagine normalizzata viene suddivisa in una serie di anelli concentrici, ognuno dei quali rappresenta una diversa distanza radiale dall’origine dell’iride. Per ogni anello, vengono calcolate le statistiche degli intensità dei pixel, come la media o la deviazione standard, per creare un profilo dell’iride.

Rilevamento dei punti di confine: Utilizzando un algoritmo di rilevamento dei bordi, vengono individuati i punti di confine tra l’iride e la pupilla all’interno di ogni anello. Questi punti rappresentano i punti di transizione tra le diverse caratteristiche dell’iride.

Codifica dei punti di confine: I punti di confine rilevati vengono codificati in una sequenza di bit per creare una rappresentazione univoca delle caratteristiche dell’iride. Questa sequenza di bit viene chiamata “codice di fase”.

Confronto e corrispondenza: Durante la fase di verifica o identificazione, il codice di fase dell’iride acquisita viene confrontato con i codici di fase memorizzati nel database. Viene calcolata una misura di similarità

21
Q

Com’è la segmentazione generale dell’iride?

A

La segmentazione generale dell’iride è il processo di estrazione e isolamento dell’area dell’iride dalle immagini dell’occhio. Questa fase è una parte fondamentale dei sistemi di riconoscimento dell’iride e viene eseguita per identificare e separare l’iride dalle altre componenti dell’occhio, come la sclera, la pupilla e le palpebre.

La segmentazione dell’iride può essere suddivisa in diverse fasi:

Pre-elaborazione: In questa fase, vengono applicate operazioni di pre-elaborazione all’immagine dell’occhio per migliorare la qualità dell’immagine e facilitare la segmentazione successiva. Ciò può includere operazioni come la riduzione del rumore, la normalizzazione dell’illuminazione e l’equalizzazione dell’istogramma.

Individuazione della pupilla: La prima fase della segmentazione dell’iride consiste nell’individuare la pupilla, che è la parte più scura dell’occhio e si trova al centro dell’iride. Questo può essere fatto utilizzando algoritmi di rilevamento dei contorni o basati su soglia. (Punti neri come punti appartenenti all’iride, bianchi altrimenti)

Estrazione dell’iride: Una volta che la posizione della pupilla è stata determinata, l’iride può essere estratta isolando l’area circostante. Questa fase può coinvolgere l’applicazione di algoritmi di rilevamento dei bordi, di segmentazione basata su soglia o di approcci basati su modelli statistici per delineare i confini dell’iride.

Refinamento dei confini: Dopo l’estrazione iniziale dell’iride, è possibile eseguire operazioni di raffinamento per migliorare la precisione dei confini dell’iride. Ciò può includere l’applicazione di algoritmi di edge detection, di smussatura dei bordi o di altre tecniche di elaborazione dell’immagine per ottenere contorni più definiti.

Validazione dell’iride: In questa fase, vengono applicate regole o criteri di validazione per assicurarsi che l’area estratta corrisponda effettivamente all’iride e che non siano presenti errori o artefatti. Ciò può coinvolgere l’eliminazione di regioni indesiderate, come ciglia o riflessi, o l’analisi delle caratteristiche dell’iride per confermare la sua autenticità

22
Q

Cos’è un sistema multibiometrico? e quali tipi esistono?

A

Un sistema multibiometrico è un sistema che utilizza più di una caratteristica biometrica per l’identificazione o l’autenticazione di un individuo. Invece di affidarsi a una singola caratteristica biometrica, come l’impronta digitale o il riconoscimento facciale, un sistema multibiometrico combina più caratteristiche per migliorare la precisione, l’affidabilità e la sicurezza complessiva del sistema.

Esistono diversi tipi di sistemi multibiometrici, che variano in base alle caratteristiche biometriche utilizzate e alla modalità di integrazione. Alcuni dei tipi comuni di sistemi multibiometrici includono:

Fusione a livello di decisione: In questo tipo di sistema, le decisioni di riconoscimento o autenticazione vengono prese in base ai risultati ottenuti dalle diverse caratteristiche biometriche. I risultati vengono combinati utilizzando tecniche di fusione come il voto a maggioranza o le regole di decisione basate su soglia.

Fusione a livello di caratteristica: In questo tipo di sistema, le caratteristiche biometriche estratte da diverse modalità vengono combinate per creare una rappresentazione composta dell’individuo. Questa rappresentazione combinata viene quindi utilizzata per il riconoscimento o l’autenticazione.

Fusione a livello di punteggio: Qui, i punteggi di similarità o di corrispondenza delle diverse caratteristiche biometriche vengono combinati per ottenere un punteggio finale. Questo punteggio finale viene quindi utilizzato per prendere la decisione di riconoscimento o autenticazione.

Fusione eterogenea: Questo tipo di sistema utilizza diverse modalità biometriche che possono variare in termini di natura e caratteristiche. Ad esempio, potrebbe combinarsi il riconoscimento facciale con il riconoscimento dell’iride o con il riconoscimento vocale.

L’utilizzo di un sistema multibiometrico offre diversi vantaggi, tra cui un miglior livello di sicurezza, una maggiore precisione nel riconoscimento, una maggiore resistenza alle frodi e una migliore gestione degli errori.