Prati, pascoli e paesaggio alpino - SoZooAlp
Prati, pascoli e paesaggio alpino - SoZooAlp Prati, pascoli e paesaggio alpino - SoZooAlp
91 PRATI, PASCOLI E PAESAGGIO ALPINO elementi. Si riconoscono tre metodologie fondamentali: le ripartizione, i cluster di sovrapposizione e il clustering sfocato. I metodi di ripartizione forniscono una distribuzione degli oggetti in k cluster distinti. Le ripartizioni sono dette hard o crisp in quanto, diversamente da quanto succede nel clustering sfocato, ogni entità può appartenere solo ad un singolo cluster ed ogni cluster deve possedere almeno un elemento (altrimenti vi sarebbero meno di k cluster). L’algoritmo di classificazione è solitamente iterativo e le iterazioni cessano quando è massimizzata la bontà della ripartizione, valutata da una funzione il cui valore deve essere ridotto al minimo. Il numero dei cluster va specificato a priori e, poiché il numero ottimale non è noto, occorre provare con tutti i possibili valori, scegliendo la soluzione che minimizza la funzione di bontà. Con molti oggetti il procedimento diventa estremamente laborioso, per cui in pratica ci si accontenta di un numero ridotto di tentativi (indicativamente una decina). A seconda di come è definita la funzione di bontà e di come si aggiusta la ripartizione ad ogni iterazione, si hanno differenti procedure, la più nota delle quali è quella delle k medie, con le sue varianti, che segue il criterio della massima coesione dei cluster ricercata minimizzando la devianza interna 12 . Altre procedure, più complesse, prendono in considerazione anche il criterio della separazione dei cluster e, a differenza delle k medie, si possono estendere anche ai dati binari e ordinali 13 . I cluster di sovrapposizione, noti come clustering Bk, diversamente dai metodi di ripartizione accettano che un oggetto faccia parte di più raggruppamenti. Si prestano perciò alla classificazione di quelle entità poco caratterizzate, di difficile collocazione, che vengono assegnate contemporaneamente a più cluster attraverso una classificazione sovrapposta. Sono prodotte più classificazioni corrispondenti ai diversi valori di k, nelle quali due cluster qualsiasi possono sovrapporsi ad ogni altro cluster in un numero massimo di k-1 oggetti: la lettera k non indica dunque qui il numero di cluster, bensì il numero massimo di oggetti che possono essere condivisi nei cluster sovrapposti. Le classificazioni B1 saranno così ripartizioni hard, le B2 saranno quelle nelle quali un oggetto potrà appartenere a due cluster, le B3 quelle in cui gli oggetti condivisi saranno al massimo due e così via. L’algoritmo è piuttosto complicato, come complessa è la rappresentazione dei risultati, specialmente quando si hanno molti oggetti e cluster. In tal caso i risultati non possono essere mostrati senza l’ausilio di altri strumenti statistici, quali gli ordinamenti. Per tale 12 L’algoritmo standard del metodo prevede (1) di selezionare una iniziale arbitraria ripartizione degli oggetti in k gruppi, (2) di calcolare il centroide (la media per tutte le variabili descrittive) per ogni cluster e (3) determinare la distanza Euclidea per ogni oggetto dal rispettivo centroide. La bontà della ripartizione è misurata in termini di devianza: J = ∑h=1 k ∑j∊Ah mh ∑i=1 n (xij – zih) 2 dove: zih = centroide (media) del cluster Ah per la variabile i mh = numero degli oggetti nel cluster Ah n = numero delle variabili. Se vi sono oggetti il cui riposizionamento riduce il valore di J, questi sono collocati nel nuovo gruppo e si ritorna al punto (2) e al punto (3), ripetendo le iterazioni fino a che non sono più possibili diminuzioni di J. 13 Metodi particolari di ripartizione, utili per elaborare matrici molto grandi (migliaia di oggetti), non agevolmente analizzabili con altri metodi, sono quelli che permettono classificazioni veloci, a scapito però della qualità dei risultati. Essi da un lato leggono i dati oggetto per oggetto, evitando l’immagazzinamento della matrice completa nella memoria operativa del computer, dall’altro riducono la mole dei dati da sottoporre ad ulteriore analisi rappresentando ogni cluster con uno dei suoi membri. La procedura di base in tali ripartizioni è l’algoritmo leader, che ha però l’inconveniente di far dipendere i risultati dalla sequenza con la quale gli oggetti sono presentati per l’analisi. Ad esso si può rimediare scegliendo casualmente l’elemento leader, ma questo rallenta notevolmente la procedura.
Fausto Gusmeroli ragione e viste anche le molte alternative di classificazione che presenta, questo tipo di clustering è poco usato e ad esso si preferisce il metodo sfocato. Il clustering sfocato (fuzzy clustering) si caratterizza per la flessibilità con la quale gli oggetti sono attribuiti ai cluster. Ciò lo rende particolarmente indicato laddove la struttura dei gruppi non è chiara e le variazioni del sistema tendono ad essere continue. Contrariamente alla concezione classica degli insiemi, uniformata ai principi di non contraddizione e del terzo escluso del paradigma Aristotelico (le unità appartengono o non appartengono ad una specifica aggregazione), la logica sfocata si basa sul principio d’indeterminazione di Heisemberg. Un oggetto può far parte simultaneamente di diversi insiemi e il grado di appartenenza ad ognuno è espresso da una funzione che configura una distribuzione di possibilità nell’ambito dell’intervallo 0-1, dove il valore 0 indica l’assoluta estraneità, il valore 1 la completa appartenenza e i valori intermedi appartenenze parziali. Pertanto, un insieme sfocato non ha confini netti e sicuri, ma vaghi. La sfocatezza non esprime l’incertezza dell’appartenenza, bensì l’assenza di un criterio preciso di attribuzione, distinguendosi in ciò dalla teoria probabilistica che, pur operando nello stesso intervallo numerico, non è deterministica. Le funzioni di appartenenza non misurano infatti delle probabilità, ma l’affinità degli oggetti ai cluster 14 . Tali funzioni possono essere calcolate in vari modi, il più semplice e noto dei quali è quello delle c medie che, come il corrispondente metodo discreto delle k medie, segue il criterio della massima coesione interna minimizzando la cosiddetta devianza sfocata 15 . In ogni caso occorre fissare a priori il numero dei cluster e il coefficiente di sfocatezza, ciò che richiede delle decisione arbitrarie, ma offre al tempo stesso una possibilità aggiuntiva di analizzare i dati più flessibilmente, esplorando diverse soluzioni. Per il numero di cluster si dispone di varie procedure finalizzate a stabilire il valore ottimale 16 . Per il coefficiente di sfocatezza, più ci si allontana dalla soglia minima unitaria delle ripartizione hard più si va verso classificazioni vaghe, ossia con confini tra i cluster sempre meno netti. Come esemplificato in tabella 5.1, una classificazione sfocata è rappresentata da una matrice le cui righe sono gli oggetti, le colonne sono i cluster ed i punteggi le funzioni di appartenenza. Nell’esempio, gli oggetti 1, 2, 7, 8 e 18 appartengono al cluster a; gli oggetti 6, 10, 14, 15 e 19 al cluster b e così via. Elevati coefficienti indicano alta affinità (come l’oggetto 1 per il cluster a, o l’oggetto 11 per il d), mentre valori non così alti segnalano 14 La teoria degli insiemi sfocati è in grado di trattare, oltre alle variabili numeriche, anche variabili vaghe, imprecise, incerte e soggettive, simulando l’intelligenza umana. Si adatta dunque molto bene all’analisi di sistemi complessi. Con le reti neurali, gli algoritmi genetici ed altre tecniche di recente sviluppo fa parte dei sistemi decisionali basati su regole del tipo “se….quindi… allora” o, più semplicemente, sulla conoscenza, come i cosiddetti sistemi esperti, utilizzati come supporto alle decisioni. In ecologia, trova applicazione anche nell’ordinamento, nello studio del determinismo ecologico e delle successioni dinamiche. 15 m k f 2 La devianza o somma dei quadrati sfocata è: FSSQ = Σj=1 Σc=1 ujc djc dove: ujc = funzione di appartenenza djc 2 = Σi=1 n (xij – vic) 2 è la distanza tra l’oggetto j ed il centroide del cluster c, ossia vic = Σj=1 m ujc f xij / Σj=1 m ujc f f (>1) = coefficiente di sfocatezza. 16 Una prima possibilità di valutazione del numero ottimale di cluster è offerta dal coefficiente di ripartizione di Bezdek, che varia da 1/k a 1 ed è massimo in corrispondenza di k ottimale: Fk = Σj=1 m Σc=1 k (ujc) 2 /m. Un seconda possibilità è data dal coefficiente di separazione, strettamente correlato al precedente e che assume valori compresi tra m/k e m: più è prossimo ad m più la ripartizione è hard: Ω = Σj=1 m Σc=1 k ujc 2 . Una terza possibilità si basa sulla separazione tra due cluster (b e c nella formula) prendendo in considerazione le distanze tra i loro centroidi sfocati: δbc = Σi=1 n (vib – vic) 2 / [maxj (ujb djb) + maxj (ujc djc)]. Infine, un’ultima possibilità fa riferimento all’entropia della ripartizione di Dunn, che assume valore minimo per k ottimale: H = -1/m Σj=1 m Σc=1 k ujc log ujc. 92
- Page 42 and 43: 41 PRATI, PASCOLI E PAESAGGIO ALPIN
- Page 44 and 45: 43 PRATI, PASCOLI E PAESAGGIO ALPIN
- Page 46 and 47: 45 PRATI, PASCOLI E PAESAGGIO ALPIN
- Page 48 and 49: 47 PRATI, PASCOLI E PAESAGGIO ALPIN
- Page 50 and 51: 49 PRATI, PASCOLI E PAESAGGIO ALPIN
- Page 52 and 53: 51 PRATI, PASCOLI E PAESAGGIO ALPIN
- Page 54 and 55: Fig. 2.6 Profili di α della funzio
- Page 56 and 57: 55 PRATI, PASCOLI E PAESAGGIO ALPIN
- Page 58 and 59: 57 PRATI, PASCOLI E PAESAGGIO ALPIN
- Page 60 and 61: 59 PRATI, PASCOLI E PAESAGGIO ALPIN
- Page 62 and 63: Fenomeni di eutrofizzazione in un p
- Page 64 and 65: 63 PRATI, PASCOLI E PAESAGGIO ALPIN
- Page 66: 65 PRATI, PASCOLI E PAESAGGIO ALPIN
- Page 69 and 70: Fausto Gusmeroli 4. La vEgEtazIoNE
- Page 71 and 72: Fausto Gusmeroli Tab. 4.1 Tab. Comu
- Page 73 and 74: Fausto Gusmeroli Fig. 4.2 I due tip
- Page 75 and 76: Fausto Gusmeroli Fig. 4.3 Principal
- Page 77 and 78: Fausto Gusmeroli temperatura di 30
- Page 79 and 80: Fausto Gusmeroli Tab. 4.3 Scale di
- Page 81 and 82: Fig. 4.4 Fausto Gusmeroli Tre ogget
- Page 83 and 84: Fausto Gusmeroli Le principali stan
- Page 85 and 86: Fausto Gusmeroli tale sono riconduc
- Page 87 and 88: Fausto Gusmeroli ossia la loro dist
- Page 89 and 90: Fig. 5.2Fausto Gusmeroli Rappresent
- Page 91: Fig. 5.4 Effetto ricercato nel riar
- Page 95 and 96: Fausto Gusmeroli iniziale da quelle
- Page 97 and 98: Particolarità nei dendrogrammi Fau
- Page 99 and 100: Classificazioni flessibili ottenute
- Page 101 and 102: Fausto Gusmeroli in k cluster sono
- Page 103 and 104: Fausto Gusmeroli verificare se vari
- Page 105 and 106: Fausto Gusmeroli aggiunto il nome d
- Page 107 and 108: Fausto Gusmeroli scinale (più even
- Page 109 and 110: Funzione di risposta della specie l
- Page 111 and 112: Fausto Gusmeroli semplice: i parame
- Page 113 and 114: Fausto Gusmeroli in rapporto alla s
- Page 115 and 116: Fausto Gusmeroli Fig. 6.3 Derivazio
- Page 117 and 118: Fig. 6.5 Fausto Gusmeroli Diagrammi
- Page 119 and 120: Vari tipi di biplot ottenuti sulla
- Page 121 and 122: Fausto Gusmeroli Dato che COA adott
- Page 123 and 124: Fausto Gusmeroli Lo scaling multidi
- Page 125 and 126: Diagramma di detrito Fausto Gusmero
- Page 127 and 128: Fausto Gusmeroli lettura. Se vi son
- Page 129 and 130: Fausto Gusmeroli getazionali. La di
- Page 131 and 132: Fausto Gusmeroli semplicemente nell
- Page 133 and 134: Fausto Gusmeroli 7. IL PaEsaggIo Na
- Page 135 and 136: Fausto Gusmeroli revoli ha portato
- Page 137 and 138: Fausto Gusmeroli deriva un’ulteri
- Page 139 and 140: Fausto Gusmeroli Tab. Tab. 7.2 Sche
- Page 141 and 142: Fausto Gusmeroli 9 Faggeta 140
Fausto Gusmeroli<br />
ragione e viste anche le molte alternative di classificazione che presenta, questo tipo di<br />
clustering è poco usato e ad esso si preferisce il metodo sfocato.<br />
Il clustering sfocato (fuzzy clustering) si caratterizza per la flessibilità con la quale<br />
gli oggetti sono attribuiti ai cluster. Ciò lo rende particolarmente indicato laddove la<br />
struttura dei gruppi non è chiara e le variazioni del sistema tendono ad essere continue.<br />
Contrariamente alla concezione classica degli insiemi, uniformata ai principi di non<br />
contraddizione e del terzo escluso del paradigma Aristotelico (le unità appartengono o<br />
non appartengono ad una specifica aggregazione), la logica sfocata si basa sul principio<br />
d’indeterminazione di Heisemberg. Un oggetto può far parte simultaneamente di diversi<br />
insiemi e il grado di appartenenza ad ognuno è espresso da una funzione che configura<br />
una distribuzione di possibilità nell’ambito dell’intervallo 0-1, dove il valore 0 indica<br />
l’assoluta estraneità, il valore 1 la completa appartenenza e i valori intermedi appartenenze<br />
parziali. Pertanto, un insieme sfocato non ha confini netti e sicuri, ma vaghi.<br />
La sfocatezza non esprime l’incertezza dell’appartenenza, bensì l’assenza di un criterio<br />
preciso di attribuzione, distinguendosi in ciò dalla teoria probabilistica che, pur operando<br />
nello stesso intervallo numerico, non è deterministica. Le funzioni di appartenenza non<br />
misurano infatti delle probabilità, ma l’affinità degli oggetti ai cluster 14 . Tali funzioni<br />
possono essere calcolate in vari modi, il più semplice e noto dei quali è quello delle c<br />
medie che, come il corrispondente metodo discreto delle k medie, segue il criterio della<br />
massima coesione interna minimizzando la cosiddetta devianza sfocata 15 . In ogni caso<br />
occorre fissare a priori il numero dei cluster e il coefficiente di sfocatezza, ciò che richiede<br />
delle decisione arbitrarie, ma offre al tempo stesso una possibilità aggiuntiva di<br />
analizzare i dati più flessibilmente, esplorando diverse soluzioni. Per il numero di cluster<br />
si dispone di varie procedure finalizzate a stabilire il valore ottimale 16 . Per il coefficiente<br />
di sfocatezza, più ci si allontana dalla soglia minima unitaria delle ripartizione hard più<br />
si va verso classificazioni vaghe, ossia con confini tra i cluster sempre meno netti. Come<br />
esemplificato in tabella 5.1, una classificazione sfocata è rappresentata da una matrice<br />
le cui righe sono gli oggetti, le colonne sono i cluster ed i punteggi le funzioni di appartenenza.<br />
Nell’esempio, gli oggetti 1, 2, 7, 8 e 18 appartengono al cluster a; gli oggetti<br />
6, 10, 14, 15 e 19 al cluster b e così via. Elevati coefficienti indicano alta affinità (come<br />
l’oggetto 1 per il cluster a, o l’oggetto 11 per il d), mentre valori non così alti segnalano<br />
14 La teoria degli insiemi sfocati è in grado di trattare, oltre alle variabili numeriche, anche variabili vaghe,<br />
imprecise, incerte e soggettive, simulando l’intelligenza umana. Si adatta dunque molto bene all’analisi di sistemi<br />
complessi. Con le reti neurali, gli algoritmi genetici ed altre tecniche di recente sviluppo fa parte dei sistemi<br />
decisionali basati su regole del tipo “se….quindi… allora” o, più semplicemente, sulla conoscenza, come i cosiddetti<br />
sistemi esperti, utilizzati come supporto alle decisioni. In ecologia, trova applicazione anche nell’ordinamento, nello<br />
studio del determinismo ecologico e delle successioni dinamiche.<br />
15 m k f 2<br />
La devianza o somma dei quadrati sfocata è: FSSQ = Σj=1 Σc=1 ujc djc<br />
dove: ujc = funzione di appartenenza<br />
djc 2 = Σi=1 n (xij – vic) 2 è la distanza tra l’oggetto j ed il centroide del cluster c, ossia vic = Σj=1 m ujc f xij / Σj=1 m ujc f<br />
f (>1) = coefficiente di sfocatezza.<br />
16 Una prima possibilità di valutazione del numero ottimale di cluster è offerta dal coefficiente di ripartizione<br />
di Bezdek, che varia da 1/k a 1 ed è massimo in corrispondenza di k ottimale: Fk = Σj=1 m Σc=1 k (ujc) 2 /m.<br />
Un seconda possibilità è data dal coefficiente di separazione, strettamente correlato al precedente e che assume<br />
valori compresi tra m/k e m: più è prossimo ad m più la ripartizione è hard: Ω = Σj=1 m Σc=1 k ujc 2 .<br />
Una terza possibilità si basa sulla separazione tra due cluster (b e c nella formula) prendendo in considerazione<br />
le distanze tra i loro centroidi sfocati: δbc = Σi=1 n (vib – vic) 2 / [maxj (ujb djb) + maxj (ujc djc)].<br />
Infine, un’ultima possibilità fa riferimento all’entropia della ripartizione di Dunn, che assume valore minimo per<br />
k ottimale: H = -1/m Σj=1 m Σc=1 k ujc log ujc.<br />
92