Prati, pascoli e paesaggio alpino - SoZooAlp

Prati, pascoli e paesaggio alpino - SoZooAlp Prati, pascoli e paesaggio alpino - SoZooAlp

29.05.2013 Views

91 PRATI, PASCOLI E PAESAGGIO ALPINO elementi. Si riconoscono tre metodologie fondamentali: le ripartizione, i cluster di sovrapposizione e il clustering sfocato. I metodi di ripartizione forniscono una distribuzione degli oggetti in k cluster distinti. Le ripartizioni sono dette hard o crisp in quanto, diversamente da quanto succede nel clustering sfocato, ogni entità può appartenere solo ad un singolo cluster ed ogni cluster deve possedere almeno un elemento (altrimenti vi sarebbero meno di k cluster). L’algoritmo di classificazione è solitamente iterativo e le iterazioni cessano quando è massimizzata la bontà della ripartizione, valutata da una funzione il cui valore deve essere ridotto al minimo. Il numero dei cluster va specificato a priori e, poiché il numero ottimale non è noto, occorre provare con tutti i possibili valori, scegliendo la soluzione che minimizza la funzione di bontà. Con molti oggetti il procedimento diventa estremamente laborioso, per cui in pratica ci si accontenta di un numero ridotto di tentativi (indicativamente una decina). A seconda di come è definita la funzione di bontà e di come si aggiusta la ripartizione ad ogni iterazione, si hanno differenti procedure, la più nota delle quali è quella delle k medie, con le sue varianti, che segue il criterio della massima coesione dei cluster ricercata minimizzando la devianza interna 12 . Altre procedure, più complesse, prendono in considerazione anche il criterio della separazione dei cluster e, a differenza delle k medie, si possono estendere anche ai dati binari e ordinali 13 . I cluster di sovrapposizione, noti come clustering Bk, diversamente dai metodi di ripartizione accettano che un oggetto faccia parte di più raggruppamenti. Si prestano perciò alla classificazione di quelle entità poco caratterizzate, di difficile collocazione, che vengono assegnate contemporaneamente a più cluster attraverso una classificazione sovrapposta. Sono prodotte più classificazioni corrispondenti ai diversi valori di k, nelle quali due cluster qualsiasi possono sovrapporsi ad ogni altro cluster in un numero massimo di k-1 oggetti: la lettera k non indica dunque qui il numero di cluster, bensì il numero massimo di oggetti che possono essere condivisi nei cluster sovrapposti. Le classificazioni B1 saranno così ripartizioni hard, le B2 saranno quelle nelle quali un oggetto potrà appartenere a due cluster, le B3 quelle in cui gli oggetti condivisi saranno al massimo due e così via. L’algoritmo è piuttosto complicato, come complessa è la rappresentazione dei risultati, specialmente quando si hanno molti oggetti e cluster. In tal caso i risultati non possono essere mostrati senza l’ausilio di altri strumenti statistici, quali gli ordinamenti. Per tale 12 L’algoritmo standard del metodo prevede (1) di selezionare una iniziale arbitraria ripartizione degli oggetti in k gruppi, (2) di calcolare il centroide (la media per tutte le variabili descrittive) per ogni cluster e (3) determinare la distanza Euclidea per ogni oggetto dal rispettivo centroide. La bontà della ripartizione è misurata in termini di devianza: J = ∑h=1 k ∑j∊Ah mh ∑i=1 n (xij – zih) 2 dove: zih = centroide (media) del cluster Ah per la variabile i mh = numero degli oggetti nel cluster Ah n = numero delle variabili. Se vi sono oggetti il cui riposizionamento riduce il valore di J, questi sono collocati nel nuovo gruppo e si ritorna al punto (2) e al punto (3), ripetendo le iterazioni fino a che non sono più possibili diminuzioni di J. 13 Metodi particolari di ripartizione, utili per elaborare matrici molto grandi (migliaia di oggetti), non agevolmente analizzabili con altri metodi, sono quelli che permettono classificazioni veloci, a scapito però della qualità dei risultati. Essi da un lato leggono i dati oggetto per oggetto, evitando l’immagazzinamento della matrice completa nella memoria operativa del computer, dall’altro riducono la mole dei dati da sottoporre ad ulteriore analisi rappresentando ogni cluster con uno dei suoi membri. La procedura di base in tali ripartizioni è l’algoritmo leader, che ha però l’inconveniente di far dipendere i risultati dalla sequenza con la quale gli oggetti sono presentati per l’analisi. Ad esso si può rimediare scegliendo casualmente l’elemento leader, ma questo rallenta notevolmente la procedura.

Fausto Gusmeroli ragione e viste anche le molte alternative di classificazione che presenta, questo tipo di clustering è poco usato e ad esso si preferisce il metodo sfocato. Il clustering sfocato (fuzzy clustering) si caratterizza per la flessibilità con la quale gli oggetti sono attribuiti ai cluster. Ciò lo rende particolarmente indicato laddove la struttura dei gruppi non è chiara e le variazioni del sistema tendono ad essere continue. Contrariamente alla concezione classica degli insiemi, uniformata ai principi di non contraddizione e del terzo escluso del paradigma Aristotelico (le unità appartengono o non appartengono ad una specifica aggregazione), la logica sfocata si basa sul principio d’indeterminazione di Heisemberg. Un oggetto può far parte simultaneamente di diversi insiemi e il grado di appartenenza ad ognuno è espresso da una funzione che configura una distribuzione di possibilità nell’ambito dell’intervallo 0-1, dove il valore 0 indica l’assoluta estraneità, il valore 1 la completa appartenenza e i valori intermedi appartenenze parziali. Pertanto, un insieme sfocato non ha confini netti e sicuri, ma vaghi. La sfocatezza non esprime l’incertezza dell’appartenenza, bensì l’assenza di un criterio preciso di attribuzione, distinguendosi in ciò dalla teoria probabilistica che, pur operando nello stesso intervallo numerico, non è deterministica. Le funzioni di appartenenza non misurano infatti delle probabilità, ma l’affinità degli oggetti ai cluster 14 . Tali funzioni possono essere calcolate in vari modi, il più semplice e noto dei quali è quello delle c medie che, come il corrispondente metodo discreto delle k medie, segue il criterio della massima coesione interna minimizzando la cosiddetta devianza sfocata 15 . In ogni caso occorre fissare a priori il numero dei cluster e il coefficiente di sfocatezza, ciò che richiede delle decisione arbitrarie, ma offre al tempo stesso una possibilità aggiuntiva di analizzare i dati più flessibilmente, esplorando diverse soluzioni. Per il numero di cluster si dispone di varie procedure finalizzate a stabilire il valore ottimale 16 . Per il coefficiente di sfocatezza, più ci si allontana dalla soglia minima unitaria delle ripartizione hard più si va verso classificazioni vaghe, ossia con confini tra i cluster sempre meno netti. Come esemplificato in tabella 5.1, una classificazione sfocata è rappresentata da una matrice le cui righe sono gli oggetti, le colonne sono i cluster ed i punteggi le funzioni di appartenenza. Nell’esempio, gli oggetti 1, 2, 7, 8 e 18 appartengono al cluster a; gli oggetti 6, 10, 14, 15 e 19 al cluster b e così via. Elevati coefficienti indicano alta affinità (come l’oggetto 1 per il cluster a, o l’oggetto 11 per il d), mentre valori non così alti segnalano 14 La teoria degli insiemi sfocati è in grado di trattare, oltre alle variabili numeriche, anche variabili vaghe, imprecise, incerte e soggettive, simulando l’intelligenza umana. Si adatta dunque molto bene all’analisi di sistemi complessi. Con le reti neurali, gli algoritmi genetici ed altre tecniche di recente sviluppo fa parte dei sistemi decisionali basati su regole del tipo “se….quindi… allora” o, più semplicemente, sulla conoscenza, come i cosiddetti sistemi esperti, utilizzati come supporto alle decisioni. In ecologia, trova applicazione anche nell’ordinamento, nello studio del determinismo ecologico e delle successioni dinamiche. 15 m k f 2 La devianza o somma dei quadrati sfocata è: FSSQ = Σj=1 Σc=1 ujc djc dove: ujc = funzione di appartenenza djc 2 = Σi=1 n (xij – vic) 2 è la distanza tra l’oggetto j ed il centroide del cluster c, ossia vic = Σj=1 m ujc f xij / Σj=1 m ujc f f (>1) = coefficiente di sfocatezza. 16 Una prima possibilità di valutazione del numero ottimale di cluster è offerta dal coefficiente di ripartizione di Bezdek, che varia da 1/k a 1 ed è massimo in corrispondenza di k ottimale: Fk = Σj=1 m Σc=1 k (ujc) 2 /m. Un seconda possibilità è data dal coefficiente di separazione, strettamente correlato al precedente e che assume valori compresi tra m/k e m: più è prossimo ad m più la ripartizione è hard: Ω = Σj=1 m Σc=1 k ujc 2 . Una terza possibilità si basa sulla separazione tra due cluster (b e c nella formula) prendendo in considerazione le distanze tra i loro centroidi sfocati: δbc = Σi=1 n (vib – vic) 2 / [maxj (ujb djb) + maxj (ujc djc)]. Infine, un’ultima possibilità fa riferimento all’entropia della ripartizione di Dunn, che assume valore minimo per k ottimale: H = -1/m Σj=1 m Σc=1 k ujc log ujc. 92

Fausto Gusmeroli<br />

ragione e viste anche le molte alternative di classificazione che presenta, questo tipo di<br />

clustering è poco usato e ad esso si preferisce il metodo sfocato.<br />

Il clustering sfocato (fuzzy clustering) si caratterizza per la flessibilità con la quale<br />

gli oggetti sono attribuiti ai cluster. Ciò lo rende particolarmente indicato laddove la<br />

struttura dei gruppi non è chiara e le variazioni del sistema tendono ad essere continue.<br />

Contrariamente alla concezione classica degli insiemi, uniformata ai principi di non<br />

contraddizione e del terzo escluso del paradigma Aristotelico (le unità appartengono o<br />

non appartengono ad una specifica aggregazione), la logica sfocata si basa sul principio<br />

d’indeterminazione di Heisemberg. Un oggetto può far parte simultaneamente di diversi<br />

insiemi e il grado di appartenenza ad ognuno è espresso da una funzione che configura<br />

una distribuzione di possibilità nell’ambito dell’intervallo 0-1, dove il valore 0 indica<br />

l’assoluta estraneità, il valore 1 la completa appartenenza e i valori intermedi appartenenze<br />

parziali. Pertanto, un insieme sfocato non ha confini netti e sicuri, ma vaghi.<br />

La sfocatezza non esprime l’incertezza dell’appartenenza, bensì l’assenza di un criterio<br />

preciso di attribuzione, distinguendosi in ciò dalla teoria probabilistica che, pur operando<br />

nello stesso intervallo numerico, non è deterministica. Le funzioni di appartenenza non<br />

misurano infatti delle probabilità, ma l’affinità degli oggetti ai cluster 14 . Tali funzioni<br />

possono essere calcolate in vari modi, il più semplice e noto dei quali è quello delle c<br />

medie che, come il corrispondente metodo discreto delle k medie, segue il criterio della<br />

massima coesione interna minimizzando la cosiddetta devianza sfocata 15 . In ogni caso<br />

occorre fissare a priori il numero dei cluster e il coefficiente di sfocatezza, ciò che richiede<br />

delle decisione arbitrarie, ma offre al tempo stesso una possibilità aggiuntiva di<br />

analizzare i dati più flessibilmente, esplorando diverse soluzioni. Per il numero di cluster<br />

si dispone di varie procedure finalizzate a stabilire il valore ottimale 16 . Per il coefficiente<br />

di sfocatezza, più ci si allontana dalla soglia minima unitaria delle ripartizione hard più<br />

si va verso classificazioni vaghe, ossia con confini tra i cluster sempre meno netti. Come<br />

esemplificato in tabella 5.1, una classificazione sfocata è rappresentata da una matrice<br />

le cui righe sono gli oggetti, le colonne sono i cluster ed i punteggi le funzioni di appartenenza.<br />

Nell’esempio, gli oggetti 1, 2, 7, 8 e 18 appartengono al cluster a; gli oggetti<br />

6, 10, 14, 15 e 19 al cluster b e così via. Elevati coefficienti indicano alta affinità (come<br />

l’oggetto 1 per il cluster a, o l’oggetto 11 per il d), mentre valori non così alti segnalano<br />

14 La teoria degli insiemi sfocati è in grado di trattare, oltre alle variabili numeriche, anche variabili vaghe,<br />

imprecise, incerte e soggettive, simulando l’intelligenza umana. Si adatta dunque molto bene all’analisi di sistemi<br />

complessi. Con le reti neurali, gli algoritmi genetici ed altre tecniche di recente sviluppo fa parte dei sistemi<br />

decisionali basati su regole del tipo “se….quindi… allora” o, più semplicemente, sulla conoscenza, come i cosiddetti<br />

sistemi esperti, utilizzati come supporto alle decisioni. In ecologia, trova applicazione anche nell’ordinamento, nello<br />

studio del determinismo ecologico e delle successioni dinamiche.<br />

15 m k f 2<br />

La devianza o somma dei quadrati sfocata è: FSSQ = Σj=1 Σc=1 ujc djc<br />

dove: ujc = funzione di appartenenza<br />

djc 2 = Σi=1 n (xij – vic) 2 è la distanza tra l’oggetto j ed il centroide del cluster c, ossia vic = Σj=1 m ujc f xij / Σj=1 m ujc f<br />

f (>1) = coefficiente di sfocatezza.<br />

16 Una prima possibilità di valutazione del numero ottimale di cluster è offerta dal coefficiente di ripartizione<br />

di Bezdek, che varia da 1/k a 1 ed è massimo in corrispondenza di k ottimale: Fk = Σj=1 m Σc=1 k (ujc) 2 /m.<br />

Un seconda possibilità è data dal coefficiente di separazione, strettamente correlato al precedente e che assume<br />

valori compresi tra m/k e m: più è prossimo ad m più la ripartizione è hard: Ω = Σj=1 m Σc=1 k ujc 2 .<br />

Una terza possibilità si basa sulla separazione tra due cluster (b e c nella formula) prendendo in considerazione<br />

le distanze tra i loro centroidi sfocati: δbc = Σi=1 n (vib – vic) 2 / [maxj (ujb djb) + maxj (ujc djc)].<br />

Infine, un’ultima possibilità fa riferimento all’entropia della ripartizione di Dunn, che assume valore minimo per<br />

k ottimale: H = -1/m Σj=1 m Σc=1 k ujc log ujc.<br />

92

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!