La regressione gerarchica è un metodo statistico per esplorare le relazioni tra, e testare ipotesi circa, una variabile dipendente e diverse variabili indipendenti. La regressione lineare richiede una variabile dipendente numerica. Le variabili indipendenti possono essere numeriche o categoriali. Regressione gerarchica significa che le variabili indipendenti non vengono immesse nella regressione simultaneamente, ma a passi. Ad esempio, una regressione gerarchica potrebbe esaminare le relazioni tra depressione (misurata da una scala numerica) e variabili che includono dati demografici (come età, sesso e gruppo etnico) nella prima fase e altre variabili (come punteggi su altri test) in una seconda fase.
Interpreta la prima fase della regressione.
Guarda il coefficiente di regressione non standardizzato (che può essere chiamato B sull'output) per ogni variabile indipendente. Per variabili indipendenti continue, rappresenta la variazione della variabile dipendente per ogni variazione di unità nella variabile indipendente. Nell'esempio, se l'età avesse un coefficiente di regressione di 2,1, significherebbe che il valore previsto della depressione aumenta di 2,1 unità per ogni anno di età.
Per le variabili categoriali, l'output dovrebbe mostrare un coefficiente di regressione per ogni livello della variabile tranne uno; quello che manca è chiamato il livello di riferimento. Ogni coefficiente rappresenta la differenza tra quel livello e il livello di riferimento sulla variabile dipendente. Nell'esempio, se il gruppo etnico di riferimento è "Bianco" e il coefficiente non standardizzato per "Nero" è -1.2, significherebbe che il valore previsto della depressione per i neri è di 1,2 unità in meno rispetto ai bianchi.
Guarda i coefficienti standardizzati (che possono essere etichettati con la lettera greca beta). Questi possono essere interpretati in modo simile ai coefficienti non standardizzati, solo che ora sono in termini di unità di deviazione standard della variabile indipendente, piuttosto che unità non elaborate. Questo può aiutare a confrontare le variabili indipendenti l'una con l'altra.
Guarda i livelli di significatività, o p-value, per ogni coefficiente (questi possono essere etichettati come "Pr >" o qualcosa di simile). Questi ti dicono se la variabile associata è statisticamente significativa. Questo ha un significato molto particolare che è spesso travisato. Significa che un coefficiente così alto o più alto in un campione di queste dimensioni sarebbe improbabile che si verificasse se il coefficiente reale, nell'intera popolazione da cui è tratto, fosse pari a 0.
Guarda R al quadrato. Questo mostra quale proporzione della variazione nella variabile dipendente è rappresentata dal modello.
Interpretare le fasi successive della regressione, la modifica e il risultato generale
Ripetere quanto sopra per ciascuna successiva fase della regressione.
Confrontare i coefficienti standardizzati, i coefficienti non standardizzati, i livelli di significatività e le r-quadrature in ogni fase fino allo stadio precedente. Questi potrebbero essere in sezioni separate dell'output o in colonne separate di una tabella. Questo confronto ti consente di sapere come le variabili nel secondo (o successivo) stadio influenzano le relazioni nel primo stadio.
Guarda l'intero modello, inclusi tutti gli stadi. Guarda i coefficienti non standardizzati e standardizzati ei livelli di significatività per ciascuna variabile e il quadrato R per l'intero modello.
Avviso
Questo è un argomento molto complesso.