La correlación entre dos variables Xj y Xq, (representando estas a un par de variables cualquiera entre un rango comprendido entre 1 y k), y para un número de muestras N, se calcula como la covarianza entre estas dos variables dividida por el producto de sus desviaciones estándar:
r = Cov(Xj, Xq) / [std(Xj).std(Xq)]
La correlación es independiente de la escala de unidades en la que estén expresadas estas dos variables, y su valor está entre -1 y 1, dándonos el grado de relación lineal entre estas dos variables.
La correlación, al igual que la covarianza, la podemos representar en una matriz, que denominaremos “Matriz de Correlaciones”.
La matriz identidad esa que en su diagonal tiene valores 1 y en el resto 0. Bien este es un caso particular de matriz de correlaciones en la que todas las variables tienen correlación cero entre ellas, excepto, como es lógico, con ellas mismas. Esto sería el caso particular de la matris de correlaciones para los factores (ortogonales entre sí) en el cálculo de los componentes principales.
No hay comentarios:
Publicar un comentario