Di Thomas BourdinAggiornato il 30 agosto 2022
Tevarak/iStock/GettyImages
La regressione lineare è una pietra angolare dell'analisi statistica, poiché ci consente di stimare la relazione tra una variabile predittrice x e una variabile di risposta y utilizzando l'equazione y = mx + b . Sebbene la linea adattata spesso catturi la tendenza sottostante, raramente attraversa perfettamente ogni punto dati. Le discrepanze risultanti, chiamate residui, introducono incertezza nelle nostre stime dei parametri, in particolare la pendenza m . L'errore standard della pendenza quantifica questa incertezza, consentendo intervalli di confidenza e test di ipotesi.
SSR è la somma delle differenze al quadrato tra y osservati valori e i valori previsti dalla linea adattata. Ad esempio, se i valori osservati sono 2,7, 5,9 e 9,4 e il modello prevede 3, 6 e 9, i residui quadrati sono rispettivamente 0,09, 0,01 e 0,16. Aggiungendoli si ottiene un SSR di 0,26.
Dividere l'SSR per i gradi di libertà, ovvero il numero di osservazioni meno due (per la pendenza e l'intercetta). Nell'esempio, con tre osservazioni, il divisore è 1, ottenendo una stima della varianza pari a 0,26. Chiama questo valore A .
La radice quadrata di A (√0,26) equivale a 0,51. Questo valore rappresenta la deviazione standard dei residui e verrà utilizzato nel calcolo finale.
x
ESS misura la variabilità della variabile predittrice attorno alla sua media. Per x valori di 1, 2 e 3, la media è 2. Sottraendo la media e elevando al quadrato ciascuna differenza si ottengono 1, 0 e 1, la cui somma dà 2. Pertanto, ESS =2.
La radice quadrata di ESS (√2) è 1,41. Indicalo come B .
Dividi la radice quadrata della stima della varianza (passaggio 3) per la radice quadrata di ESS (passaggio 5):0,51 ÷ 1,41 =0,36. Questo valore, 0,36, è l'errore standard della pendenza.
Per set di dati di grandi dimensioni, automatizza il calcolo per evitare errori manuali e risparmiare tempo.