Tesi Robotica Algoritmi ed architetture per la risoluzione di... | Page 31

1.6. DISTRIBUZIONE NORMALE BIVARIATA 31 Un ultima considerazione; osservando gli array monodimensionali ottenuti separando la gaussiana bidimensionale, osserviamo anche in questo caso una ridondanza. Tale inconveniente incorre a causa della simmetria rispetto l’origine di cui la funzione gode. Da questa proprietà possiamo prendere spunto per un’ulteriore ottimizzazione dell’algoritmo. Infatti possiamo evitare di memorizzare i coe cienti che si ripetono, ottenendo una riduzione delle locazioni di memoria della metà della dimensione del kernel più 1. Siamo riusciti ad ottenere una versione del filtro gaussiano nel dominio spaziale che meglio ottimizza le risorse spaziali e temporali che siamo in grado di mettere a disposizione. L’ottimizzazione raggiunta è un passo cruciale per la realizzazione della nostra architettura proprio in virtù del fatto che, volendo progettare un’implementazione embedded, le risorse di cui disponiamo risultano comunque esigue. Le performance dell’algoritmo sono un aspetto fondamentale. Nel prossimo capitolo ci renderemo conto, che per realizzare un implementazione e ciente dell’algoritmo DoG, la mera analisi dell’algoritmo non può bastare. Svilupperemo ulteriori considerazioni che ci permetteranno di determinare l’organizzazione hardware che meglio si sposa con le nostre esigenze. 1.6 Distribuzione normale bivariata Supponiamo che U e V siano variabili casuali indipendenti, con distribuzione normale standard. Avremo bisogno dei seguenti cinque parametri: m, v‘R; ‡, · ‘(0, Œ) e p‘[0, 1]. Ora definiamo nuove variabili casuali X e Y come segue: X = µ + ‡U Y = v + · pU + ·  1 ≠ p2 V La distribuzione congiunta di (X,Y) è detta distribuzione normale bi مɥ