Em estatística, especificamente em teoria das probabilidades, o valor esperado, também chamado esperança matemática ou expectância, de uma variável aleatória é a soma do produto de cada probabilidade de saída da experiência pelo seu respectivo valor. Isto é, representa o valor médio "esperado" de uma experiência se ela for repetida muitas vezes. Note-se que o valor em si pode não ser esperado no sentido geral; pode ser improvável ou impossível. Se todos os eventos tiverem igual probabilidade o valor esperado é a média aritmética.
Definição matemática
Esperança de uma variável aleatória
Para uma variável aleatória discreta X com valores possíveis
e com as suas probabilidades representadas pela função
, o valor esperado calcula-se pela série:
![{\displaystyle E[X]=\sum _{i=1}^{\infty }x_{i}p(x_{i})}](./_assets_/eb734a37dd21ce173a46342d1cc64c92/ec388d4b85f116933ba7cefbc748c07513518e00.svg)
desde que a série seja convergente.
Para uma variável aleatória contínua X o valor esperado calcula-se mediante o integral de todos os valores da função de densidade
:
![{\displaystyle E[X]=\int _{-\infty }^{\infty }xf(x)dx}](./_assets_/eb734a37dd21ce173a46342d1cc64c92/b2a6dfe82bf0def7e07f046133a6fcaed082a574.svg)
Generalizando, seja g uma função que toma valores no espaço amostral de X. Então temos:
![{\displaystyle E[g(X)]=\sum _{i=1}^{\infty }g(x_{i})p(x_{i})}](./_assets_/eb734a37dd21ce173a46342d1cc64c92/8475e7d37e0b922abf15aa87c0449ac92aae495f.svg)
e
![{\displaystyle E[g(X)]=\int _{-\infty }^{\infty }g(x)f(x)dx}](./_assets_/eb734a37dd21ce173a46342d1cc64c92/b020637cbd5c89ec07c79b690a82a15bc2479f1b.svg)
Deve-se notar que, no caso geral,
não comuta com a função g, ou seja:
![{\displaystyle E[g(X)]\neq g(E[X])}](./_assets_/eb734a37dd21ce173a46342d1cc64c92/fce170184fd6846e582f1ef3759a2f84a65d0187.svg)
Esperança de variáveis aleatórias de mais de uma dimensão
Para o caso mais geral de
ser uma variável aleatória de mais de uma dimensão, e com
assumindo valores em um espaço vetorial normado, temos:
![{\displaystyle E[\mathbf {g} (\mathbf {X} )]=\sum _{i=1}^{\infty }p(\mathbf {x_{i}} )\mathbf {g} (\mathbf {x_{i}} )}](./_assets_/eb734a37dd21ce173a46342d1cc64c92/6e40e5eef9c4b9b406ef3719d4f677a855dd1150.svg)
e
, em que a integral de Lebesgue é usada.
Exemplos
- a variável aleatória X dada por p(X = -1) = p(X = 1) = 1/2 tem valor esperado 0.
- a variável aleatória X dada por
para n = 1, 2, 3, ... não tem valor esperado.
- Seja um vetor aleatório Y de dimensão nX1, cujos componentes são as variáveis aleatórias
. A esperança de Y,
, é um vetor nX1 cujos componentes são as esperanças das variáveis aleatórias que compunham Y. Ou seja,
.
Propriedades do valor esperado
Nas seguintes propriedades,
são variáveis aleatórias,
são constantes.




Sejam: x o vetor aleatório N X 1 com valor esperado E(X) e variância
; A uma matriz quadrada genérica de dimensão N x X; tr(A) o traço da matriz A. Então, a esperança da variável ao quadrado será:
E para duas variáveis aleatórias:


Estas propriedades podem ser generalizadas para qualquer número de variáveis aleatórias.
Operador esperança
O valor esperado de uma combinação linear de variáveis aleatórias é a combinação linear dos seus valores esperados:
![{\displaystyle E[aX+bY]=aE[X]+bE[Y]}](./_assets_/eb734a37dd21ce173a46342d1cc64c92/3f20a5cf4b4dd13bef83477f4659703db627ff28.svg)
Por esse motivo, a função E[] que associa a cada variável aleatória o seu valor esperado é um operador linear, chamado de operador esperança.
Esperança do produto
No caso geral, temos que
![{\displaystyle E[XY]\neq E[X]E[Y]}](./_assets_/eb734a37dd21ce173a46342d1cc64c92/7d69fd88a5da96c51aaec995440bd9b5840b868c.svg)
No caso particular de X e Y serem variáveis aleatórias independentes, temos que:
![{\displaystyle E[XY]=E[X]E[Y]}](./_assets_/eb734a37dd21ce173a46342d1cc64c92/0c4f4c7aaa7b3f2ebd9dd291f393328fbaae3dbd.svg)
Esperança condicional
Seja uma variável aleatória
e uma sigma-álgebra
no espaço amostral
. A esperança condicional de X, dado
, é a variável aleatória
tal que
[1]
.[2]
Esta variável Z tem as seguintes propriedades:
- Z não contém mais informação que a contida em
. Ou seja, a variável aleatória (que é sempre uma função)
é mensurável com relação a
(=constante em qualquer subconjunto da partição correspondente a
) [1]
- Z satisfaz a relação
, onde
é uma variável indicadora, que vale 1 se
e 0 se
.
Referências
|
|---|
| Estatística descritiva | |
|---|
| Inferência estatística | |
|---|
| Estatística não-paramétrica |
- Teste binomial
- Teste chi-quadrado de Pearson
- uma amostra
- duas amostras independentes
- k amostras independentes
- Teste Kolmogorov-Smirnov
- uma amostra
- duas amostras independentes
- Teste de McNemar
- Teste dos sinais
- Teste de Wilcoxon
- Teste de Walsh
- Teste exato de Fisher
- Teste Q de Cochran
- Teste de Kruskal-Wallis
- Teste de Friedman
|
|---|
| Análise de sobrevivência |
- Função de sobrevivência
- Kaplan-Meier
- Teste log-rank
- Taxa de falha
- Proportional hazards models
|
|---|
| Amostragem |
- Amostra
- Amostragem aleatória simples
- Amostragem estratificada
- Amostragem por conglomerados
- Amostragem sistemática
|
|---|
| Distribuição de probabilidade | |
|---|
| Correlação | |
|---|
| Regressão | |
|---|
| Análise multivariada |
Análise de "Cluster" (análise de agrupamento)
- Análise de correspondência
|
|---|
| Séries temporais |
- Modelos para séries temporais
- Tendência e sazonalidade
- Modelos de suavização exponencial
- ARIMA
- Modelos sazonais
|
|---|