18.01.2015 Views

Appunti di Calcolo Numerico - Esercizi e Dispense - Università degli ...

Appunti di Calcolo Numerico - Esercizi e Dispense - Università degli ...

Appunti di Calcolo Numerico - Esercizi e Dispense - Università degli ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

4.7. Il metodo delle secanti<br />

costo computazionale molto elevato. Viceversa, un metodo può avere un basso or<strong>di</strong>ne <strong>di</strong> convergenza ma<br />

essere anche semplice computazionalmente e, quin<strong>di</strong>, molto vantaggioso da questo punto <strong>di</strong> vista.<br />

Si definisce in<strong>di</strong>ce <strong>di</strong> efficienza E dello schema iterativo la quantità<br />

E = p 1/s<br />

dove s in<strong>di</strong>ca il numero <strong>di</strong> volte in cui bisogna calcolare la funzione e la sua derivata prima ad ogni iterazione<br />

e p è l’or<strong>di</strong>ne <strong>di</strong> convergenza del metodo.<br />

4.7 Il metodo delle secanti<br />

La conoscenza della derivata prima della f per applicare il metodo <strong>di</strong> Newton-Raphson potrebbe essere<br />

semplice ma a volte potrebbe rivelarsi un’operazione molto costosa e alquanto complicata.<br />

Il metodo delle secanti è una variante del metodo <strong>di</strong> Newton-Raphson dove, al posto della derivata prima,<br />

si considera una sua approssimazione.<br />

Scriviamo la formula ricorsiva<br />

x n+1 = x n − f (x n)<br />

C n<br />

Per C n = f ′ (x n ) abbiamo la formula <strong>di</strong> Newton-Raphson, che possiamo anche chiamare della tangente<br />

variabile perchè è il coefficiente angolare della retta tangente a (x n , f (x n )) che interseca l’asse delle x in x n+1 .<br />

Ve<strong>di</strong>amo altre scelte <strong>di</strong> C n :<br />

G C n = f ′ (x 0 ): il valore <strong>di</strong> C n è costante e dà vita al metodo della tangente fissa.<br />

G C n = f (x 1) − f (x 0 )<br />

: abbiamo sempre una costante che approssima la derivata f ′ (x 0 ) utilizzando i valori<br />

x 1 − x 0<br />

<strong>di</strong> x 1 e x 0 . Lo schema è detto della secante fissa.<br />

G C n = f (x n) − f (x n−1 )<br />

. La derivata f ′ (x n ) è approssimata utilizzando il rapporto incrementale della f<br />

x n − x n−1<br />

valutata in x n e x n−1 . Abbiamo il metodo delle secante variabile, che chiameremo nel seguito anche<br />

metodo 2 della Regula Falsi.<br />

In forma estesa, l’iterazione n + 1 della Regula Falsi si scrive come:<br />

x n+1 = x n − f (x n)(x n − x n−1 )<br />

f (x n ) − f (x n−1 )<br />

Notiamo che, per innescare il metodo occorrono due valori iniziali, x 0 e x 1 . Ma è richiesta solo la<br />

valutazione della funzione f a ciascun passo (nessuna conoscenza della derivata prima).<br />

Da un punto <strong>di</strong> vista geometrico, nel metodo delle secanti il valore x n+1 è dato dall’intercetta sull’asse<br />

delle x della retta passante per x n , f (x n ) e x n−1 , f (x n−1 ). Per quanto riguarda l’accumulo <strong>degli</strong> errori <strong>di</strong> arrotondamento,<br />

conviene utilizzare la formula così come è stata scritta in quanto è più sicura rispetto alla forma<br />

compatta in cui vengono raccolti i termini, data da<br />

x n+1 = x n−1 f (x n ) − x n f (x n−1 )<br />

f (x n ) − f (x n−1 )<br />

in quanto in quest’ultima, si può avere il fenomeno della cancellazione numerica per x n ≈ x n−1 e<br />

f (x n )f (x n−1 ) > 0.<br />

Per quanto riguarda l’or<strong>di</strong>ne <strong>di</strong> convergenza si può <strong>di</strong>mostrare che si ha convergenza superlineare poichè<br />

vale la relazione<br />

ɛ n+1 = M<br />

p<br />

p + 1 ɛ<br />

p<br />

n<br />

2 Attenzione! In letteratura viene descritto un altro metodo (simile ma non lo stesso) con il nome della Regula Falsi o Falsa Posizione<br />

che genera i valori x n+1 in modo che la ra<strong>di</strong>ce ξ sia sempre compresa tra le iterazioni successive.<br />

49

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!