Korrelationsmatrix

In der Stochastik ist die Korrelationsmatrix eine symmetrische und positiv semidefinite Matrix, die die Korrelation zwischen den Komponenten eines Zufallsvektors erfasst. Die Korrelationsmatrix kann aus der Varianz-Kovarianzmatrix erhalten werden und umgekehrt.

Definition

Die Korrelationsmatrix als Matrix aller paarweisen Korrelationskoeffizienten der Elemente eines Zufallsvektors X = ( X 1 , X 2 , , X n ) {\displaystyle \mathbf {X} =(X_{1},X_{2},\dotsc ,X_{n})^{\top }} enthält Informationen über die Korrelationen zwischen seinen Komponenten.[1] Analog zur Varianz-Kovarianzmatrix Σ {\displaystyle \mathbf {\Sigma } } ist die Korrelationsmatrix definiert als[2]

P Corr ( X ) = ( ρ 11 ρ 12 ρ 1 n ρ 21 ρ 22 ρ 2 n ρ n 1 ρ n 2 ρ n n ) = ( 1 ρ 12 ρ 1 n ρ 21 1 ρ 2 n ρ n 1 ρ n 2 1 ) {\displaystyle \mathbf {P} \equiv \operatorname {Corr} (\mathbf {X} )={\begin{pmatrix}\rho _{11}&\rho _{12}&\cdots &\rho _{1n}\\\\\rho _{21}&\rho _{22}&\cdots &\rho _{2n}\\\\\vdots &\vdots &\ddots &\vdots \\\\\rho _{n1}&\rho _{n2}&\cdots &\rho _{nn}\end{pmatrix}}={\begin{pmatrix}1&\rho _{12}&\cdots &\rho _{1n}\\\\\rho _{21}&1&\cdots &\rho _{2n}\\\\\vdots &\vdots &\ddots &\vdots \\\\\rho _{n1}&\rho _{n2}&\cdots &1\end{pmatrix}}} ,

wobei ρ i j = Cov ( X i , X j ) / Var ( X i ) Var ( X j ) = σ i j / σ i σ j {\displaystyle \rho _{ij}=\operatorname {Cov} (X_{i},X_{j})/{\sqrt {\operatorname {Var} (X_{i})\operatorname {Var} (X_{j})}}=\sigma _{ij}/\sigma _{i}\sigma _{j}} der Korrelationskoeffizient zwischen X i {\displaystyle X_{i}} und X j {\displaystyle X_{j}} ist.

Beispielsweise beinhaltet die zweite Zeile von P {\displaystyle \mathbf {P} } die Korrelation von X 2 {\displaystyle X_{2}} mit jeder anderen X {\displaystyle X} -Variablen. Die Korrelationsmatrix in der Grundgesamtheit wird als P ρ {\displaystyle \mathbf {P} _{\rho }} bzw. P {\displaystyle \mathbf {P} } und die Stichproben-Korrelationsmatrix als R {\displaystyle \mathbf {R} } bezeichnet. Wenn man die Diagonalmatrix D = ( diag ( Σ ) ) 1 / 2 = diag ( σ 1 , σ 2 , , σ n ) {\displaystyle \mathbf {D} =\left(\operatorname {diag} ({\boldsymbol {\Sigma }})\right)^{1/2}=\operatorname {diag} (\sigma _{1},\sigma _{2},\dotsc ,\sigma _{n})} definiert, dann erhält man P {\displaystyle \mathbf {P} } durch Σ {\displaystyle {\boldsymbol {\Sigma }}} und umgekehrt:

P = D 1 Σ D 1 {\displaystyle \mathbf {P} =\mathbf {D} ^{-1}\,{\boldsymbol {\Sigma }}\,\mathbf {D} ^{-1}}

oder äquivalent

Σ = D P D {\displaystyle {\boldsymbol {\Sigma }}=\mathbf {D} \,\mathbf {P} \,\mathbf {D} } .

Eigenschaften

  • Sind alle Komponenten des Zufallsvektors X {\displaystyle \mathbf {X} } linear unabhängig, so ist R {\displaystyle \mathbf {R} } positiv definit.
  • Auf der Hauptdiagonalen wird die Korrelation der Größen mit sich selbst berechnet. Da der Zusammenhang der Größen strikt linear ist, ist die Korrelation auf der Hauptdiagonalen immer eins.
  • Bei Stichprobenziehung aus einer mehrdimensionalen Normalverteilung ist die Stichproben-Korrelationsmatrix R {\displaystyle \mathbf {R} } Maximum-Likelihood-Schätzer der Korrelationsmatrix in der Grundgesamtheit P {\displaystyle \mathbf {P} } .[3]

Stichproben-Korrelationsmatrix

Eine Schätzung der Korrelationsmatrix in der Grundgesamtheit P ^ {\displaystyle {\widehat {\mathbf {P} }}} erhält man, indem man die Korrelationskoeffizienten in der Grundgesamtheit ρ i j {\displaystyle \rho _{ij}} durch die empirischen Korrelationskoeffizienten (ihre empirischen Gegenstücke) r i j {\displaystyle r_{ij}} ersetzt. Dies führt zur Stichproben-Korrelationsmatrix R {\displaystyle \mathbf {R} }

R = P ^ = Corr ( X ) ^ = ( 1 r 12 r 1 k r 21 1 r 2 k r k 1 r k 2 1 ) {\displaystyle {\begin{aligned}\mathbf {R} ={\widehat {\mathbf {P} }}={\widehat {\operatorname {Corr} (\mathbf {X} )}}&={\begin{pmatrix}1&r_{12}&\cdots &r_{1k}\\\\r_{21}&1&\cdots &r_{2k}\\\\\vdots &\vdots &\ddots &\vdots \\\\r_{k1}&r_{k2}&\cdots &1\end{pmatrix}}\end{aligned}}} .

Siehe auch

Einzelnachweise

  1. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 646.ff.
  2. Rencher, Alvin C., und G. Bruce Schaalje: Linear models in statistics., John Wiley & Sons, 2008., S. 77.
  3. Rencher, Alvin C., und G. Bruce Schaalje: Linear models in statistics., John Wiley & Sons, 2008., S. 247.
Spezielle Matrizen in der Statistik

Datenmatrix | Produktsummenmatrix | Prädiktionsmatrix | residuenerzeugende Matrix | zentrierende Matrix | Kovarianzmatrix | Korrelationsmatrix | Präzisionsmatrix | Gewichtsmatrix | Restriktionsmatrix | Fisher-Informationsmatrix | Bernoulli-Matrix | Leslie-Matrix | Zufallsmatrix | Übergangsmatrix