Em teoria da probabilidade e na estatística, a covariância, ou variância conjunta, é uma medida do grau de interdependência (ou inter-relação) numérica entre duas variáveis aleatórias[1]. Assim, variáveis independentes têm covariância zero.
A covariância é por vezes chamada de medida de dependência linear entre as duas variáveis aleatórias.
A covariância ou variância conjunta é um momento conjunto de primeira ordem das variáveis aleatórias X e Y, centrados nas respectivas médias. É a média do grau de interdependência ou inter-relação numérica linear entre elas[1].
Se a variável for discreta, a covariância pode ser calculada de duas formas:
, onde
é a frequência relativa (ou probabilidade de ocorrer o par
e
é a média para os valores da variável indicada.
![{\displaystyle \operatorname {cov} (X,Y)={\frac {1}{n}}\left[\sum _{i=1}^{n}x_{i}y_{i}-{\frac {1}{n}}\left(\sum _{i=1}^{n}x_{i}\right)\left(\sum _{i=1}^{n}y_{i}\right)\right]}](./_assets_/eb734a37dd21ce173a46342d1cc64c92/0d1b8022345925a28e06d0238f83d49376cd2765.svg)
Prova matemática
Em teoria da probabilidade e na estatística, a covariância entre duas variáveis aleatórias reais X e Y, com valores esperados
e
é definida como uma medida de como duas variáveis variam conjuntamente:
![{\displaystyle \operatorname {cov} (X,Y)=\operatorname {E} [(X-\mu _{X})(Y-\mu _{Y})],\,}](./_assets_/eb734a37dd21ce173a46342d1cc64c92/7ba54e5744b86298dd511649deedc70b1f177b5b.svg)
onde
é o operador do valor esperado[2]. Desenvolvendo a expressão para a Covariância, temos:
![{\displaystyle \operatorname {cov} (X,Y)=\operatorname {E} [(X-\mu _{X})(Y-\mu _{Y})]}](./_assets_/eb734a37dd21ce173a46342d1cc64c92/2d47827c2735cd5019f18d4eed8fb91a453b701c.svg)
Usando a propriedade de que a Esperança (Valor esperado) de uma variável aleátória X qualquer é um operador linear, determinamos que a Esperança de uma soma é a soma das Esperanças:
![{\displaystyle \operatorname {cov} (X,Y)=\operatorname {E} (XY)-\operatorname {E} [X\operatorname {E} (Y)]-\operatorname {E} [Y\operatorname {E} (X)]+\operatorname {E} [\operatorname {E} (X)\operatorname {E} (Y)]\ }](./_assets_/eb734a37dd21ce173a46342d1cc64c92/4fce3846511f4b012cc1ec09df1369005b5e984b.svg)
Novamente utilizando da linearidade da Esperança, temos que a Esperança de uma constante K qualquer multiplicada pela variável X é equivalente à constante K multiplicada pela Esperança da variável X. Sendo a Esperança de X um número qualquer definido no conjunto dos Números Reais, podemos fatorá-la em dois fatores:
Isto equivale à seguinte fórmula, a qual é geralmente usada para fazer os cálculos[2]:

Se X e Y são independentes, então a sua covariância é zero. Isto acontece porque sob independência[2]:
.
Assim:



O inverso, no entanto, não é verdadeiro: é possível que X e Y não sejam independentes e terem no entanto covariância zero[2]. Variáveis aleatórias cuja covariância é zero são chamadas descorrelacionadas.
Propriedades da Covariância
Se X e Y são variáveis aleatórias de valor real e a, b, c e d constantes ("constante", neste contexto, significa não aleatória), então os seguintes factos são uma consequência da definição da covariância[2]:




Para variáveis aleatórias em vetores coluna X e Y com respectivos valores esperados μX e μY, e n e m de componentes escalares respectivamente, a covariância é definida como matriz n×m

Para variáveis aleatórias em vetor, cov(X, Y) e cov(Y, X) são a transposta de cada um.
Relação entre variância e covariância
A covariância entre duas variáveis pode ser obtida de dados de variância[1]. Para variáveis aleatórias X e Y, sejam:
é a variância populacional de X
é a variância populacional de Y
é a variância populacional de uma variável obtida a partir da soma simples das variáveis X e Y.
- "a" e "b" são constantes
Então, teremos:

Outras nomenclaturas
A covariância é por vezes chamada de medida de dependência linear entre as duas variáveis aleatórias.
O Coeficiente de Correlação Linear é um conceito relacionado usado para medir o grau de dependência linear entre duas variáveis, variando entre -1 e 1, indicando o sentido da dependência.
Exemplo de cálculo de covariância populacional
Seja X a variável "altura dos jogadores de basquete" e seja Y a variável "peso dos mesmos atletas". A partir desses dados, é possível montar uma tabela com os desvios em relação a média. Essa tabela auxilia no cálculo da covariância[1]:
| Atleta |
Variável X (altura em metros) |
Variável Y (peso em kg) |
Desvio de X (valor menos média da variável) |
Desvio de Y (valor menos média da variável) |
Multiplicação dos desvios
|
| 1) Pedro |
1,95 |
93,1 |
-0,038 |
-1,34 |
-0,038*-1,34=+0,05092
|
| 2) João |
1,96 |
93,9 |
-0,028 |
-0,54 |
-0,028*-0,54=+0,01512
|
| 3) José |
1,95 |
89,9 |
-0,038 |
-4,54 |
-0,038*-4,54=+0,17252
|
| 4) Renato |
1,98 |
95,1 |
-0,008 |
+0,66 |
-0,008*0,66=-0,00528
|
| 5) André |
2,10 |
100,2 |
+0,112 |
+5,76 |
0,112*5,76=0,64512
|
| Soma |
= 1,95+1,96+...+2,10=9,94 |
  |
A soma de desvios é sempre igual a zero |
A soma de desvios é sempre igual a zero |
+0,05092+0,01512+0,17252-0,00528+0,64512=0,8784.
|
| Número de elementos |
N = 5 alturas medidas |
N = 5 pesos medidos |
5 desvios calculados |
5 desvios calculados |
5 multiplicações feitas
|
| Média |
  |
  |
A média de desvios é sempre igual a zero |
A média de desvios é sempre igual a zero |
0,8784/(5)=0,17568=covariância de X e Y
|
Referências
- ↑ a b c d MILONE, Giuseppe. Estatística geral e aplicada. São Paulo: Centage Learning, 2009. Capítulo 4
- ↑ a b c d e Covariance, site do Department of Mathematical Sciences da University of Alabama in Huntsville
|
|---|
| Estatística descritiva | |
|---|
| Inferência estatística | |
|---|
| Estatística não-paramétrica |
- Teste binomial
- Teste chi-quadrado de Pearson
- uma amostra
- duas amostras independentes
- k amostras independentes
- Teste Kolmogorov-Smirnov
- uma amostra
- duas amostras independentes
- Teste de McNemar
- Teste dos sinais
- Teste de Wilcoxon
- Teste de Walsh
- Teste exato de Fisher
- Teste Q de Cochran
- Teste de Kruskal-Wallis
- Teste de Friedman
|
|---|
| Análise de sobrevivência |
- Função de sobrevivência
- Kaplan-Meier
- Teste log-rank
- Taxa de falha
- Proportional hazards models
|
|---|
| Amostragem |
- Amostra
- Amostragem aleatória simples
- Amostragem estratificada
- Amostragem por conglomerados
- Amostragem sistemática
|
|---|
| Distribuição de probabilidade | |
|---|
| Correlação | |
|---|
| Regressão | |
|---|
| Análise multivariada |
Análise de "Cluster" (análise de agrupamento)
- Análise de correspondência
|
|---|
| Séries temporais |
- Modelos para séries temporais
- Tendência e sazonalidade
- Modelos de suavização exponencial
- ARIMA
- Modelos sazonais
|
|---|