Anda di halaman 1dari 14

0303200 – Probabilidade – Aula 12

Magno T. M. Silva

Escola Politécnica da USP

A maior parte dos exemplos dessa aula foram extraı́dos de Jay


L. Devore, Probabilidade e Estatı́stica para engenharia e
ciências, tradução da 8a edição americana, Cengage, 2014
Essa parte da matéria está nos Capı́tulos 6 e 7 do livro do
Dantas.
Sumário

Combinação linear de variáveis aleatórias independentes

Variáveis aleatórias conjuntamente gaussianas

Teorema do Limite Central

Aproximação da distribuição binomial pela normal


Combinação linear de variáveis aleatórias independentes
◮ Sejam X e Y duas variáveis aleatórias independentes com
médias E(X) e E(Y ) e variâncias σ 2 (X) e σ 2 (Y ),
respectivamente.
◮ Seja W = aX + bY + c uma outra variável aleatória obtida da
combinação linear de X e Y com a, b e c constantes. Observe
que E(W ) = aE(X) + bE(Y ) + c.
◮ Então

W 2 = a2 X 2 + 2abXY + 2acX + b2 Y 2 + 2bcY + c2


E(W 2 ) = a2 E(X 2 )+2abE(XY )+2acE(X)+b2 E(Y 2 )+2bcE(Y )+c2
E(W )2 = a2 E(X)2 +2abE(X)E(Y )+2acE(X)+b2 E(Y )2 +2bcE(Y )+c2

◮ Como X e Y são independentes E(XY ) = E(X)E(Y ), então

σ 2 (W ) = a2 σ 2 (X) + b2 σ 2 (Y )
Combinação linear de variáveis aleatórias gaussianas
independentes
◮ Sejam X1 , X2 , · · · , Xn variáveis aleatórias gaussianas
independentes com médias µ1 , µ2 , · · · , µn e variâncias
σ12 , σ22 , · · · , σn2 , respectivamente.
◮ Uma combinação linear dessas variáveis aleatórias gaussianas,
ou seja,
Y = a 1 X1 + a 2 X2 + · · · + a n Xn
também é uma variável aleatória gaussiana
◮ com média

E(Y ) = a1 µ1 + a2 µ2 + · · · + an µn

e variância

σ 2 (Y ) = a21 σ12 + a22 σ22 + · · · + a2n σn2 .


Combinação de gaussianas independentes – Exemplo

◮ Considere que as notas da P1 , P2 e P3 da disciplina de


Probabilidade sejam variáveis aleatórias gaussianas
independentes com médias

µP1 = 7,0, µP2 = 5,0, µP3 = 3,0

e variâncias
σP2 1 = 4, σP2 2 = 3, σP2 3 = 5
◮ A média da disciplina é calculada como
P1 + 1,5 P2 + 2 P3
M=
4,5
◮ Determine a probabilidade da média M ser maior que 5,0
Combinação de gaussianas independentes – Exemplo
◮ Note que M = 0,2222P1 + 0,3333P2 + 0,4444P3 é uma
combinação linear de variáveis aleatórias gaussianas e por isso,
também é gaussiana.
◮ A média de M é

E{M } = 0,2222 µP1 + 0,3333 µP2 + 0,4444 µP3

E{M } = 4,5556

◮ Como as variáveis aleatórias são independentes, a variância


vale
2
σM = (0,2222)2 σP2 1 + (0,3333)2 σP2 2 + (0,4444)2 σP2 3
2
σM = 1,5185

◮ Assim, M ∼ N (4,5556; 1,5185)


Combinação de gaussianas independentes – Exemplo

◮ Sabendo que M ∼ N (4,5556; 1,5185), queremos calcular


P (M > 5,0)
◮ Fazendo a normalização
 
5,0 − 4,5556
P (M > 5,0) = P Z > √ = P (Z > 0,3607)
1,5185

◮ Da Tabela temos P (0 < Z < 0,36) = 0,14058


◮ Finalmente,

P (M > 0,5) = 0,5 − 0,14058 = 0,3594


Variáveis aleatórias conjuntamente gaussianas

Duas VAs X e Y são conjuntamente gaussianas se a f.d.p.


conjunta for da forma
1
f (x,y) = q
2πσX σY 1 − ρ2XY

(x − µX )2 (x − µX ) (y − µY ) (y − µY )2
  
1
exp − 2 − 2ρ XY +
2(1 − ρ2 ) σX σX σY σY2
O máximo de f (x,y) ocorre em (µX ,µY ), ou seja,
1
f (x,y) ≤ f (µX ,µY ) = p
2πσX σY 1 − ρ2
Variáveis aleatórias conjuntamente gaussianas
Variáveis aleatórias conjuntamente gaussianas

◮ Como vimos, se X e Y forem v.a.’s independentes, então


Cov(X,Y ) = 0 (e consequentemente ρXY = 0)
◮ No entanto, a recı́proca não é verdadeira sempre, ou seja,
Cov(X,Y ) = 0 (e consequentemente ρXY = 0) não implica
X e Y independentes.
◮ Para v.a.’s conjuntamente gaussianas, se ρXY = 0, é possı́vel
mostrar que
f (x,y) = fX (x)fY (y),
valendo então a recı́proca. Dessa foram, ρXY = 0 implica X e
Y independentes se elas forem gaussianas.
Teorema do Limite Central

Sob certas condições, a distribuição da soma de um grande número


de v.a.’s independentes X1 ,X2 , · · · ,XN , ou seja,
YN = X1 + X2 + · · · + XN se aproxima de uma distribuição
gaussiana com média

µYN = µX 1 + µX 2 + · · · + µX N

e variância
σY2N = σX
2
1
2
+ σX 2
2
+ · · · + σX N

[Ver programas em Matlab]


Aproximação da distribuição binomial
Seja X uma v.a. baseada em n ensaios com probabilidade de
sucesso p, ou seja X ∼ Bin(n, p) . Se o histograma de
probabilidade binomial não for muito inclinado, X tem uma
distribuição
p aproximadamente normal com µ = np e
σ = np(1 − p). Em particular, para x um valor possı́vel de X
!
x + 0,5 − np
P (X ≤ x) ≈ P Z ≤ p
np(1 − p)

em que Z ∼ N(0, 1). Essa aproximação é adequada para np ≥ 10 e


n(1 − p) ≥ 10
4.3 Exemplo 4.20 (Devore)

Suponha que 25% de todos os alunos da universidade pública


recebam ajuda financeira. Assuma X como o número de alunos
em uma amostra aleatória de tamanho 50 que recebam ajuda
financeira, de modo que p = 0,25.
Determine:
◮ a probabilidade de que no máximo 10 alunos recebam ajuda
◮ a probabilidade de que entre 5 e 15 alunos recebam ajuda
4.3 Exemplo 4.20
Resolução:
◮ Dos dados
p podemosp calcular µ = np = 50(0,25) = 12,5 e
σ = np(1 − p) = 50(0,25)(0,75) = 3,06.
◮ Uma vez que np = 12,5 ≥ 10 e n(1 − p) = 37,5 ≥ 10, a
aproximação pela normal pode ser usada de forma segura.
◮ A probabilidade de que no máximo 10 alunos recebam ajuda é
de
 
10 + 0,5 − 12,5
P (X ≤ 10) ≈ P Z ≤ = P (Z ≤ −0,65)
3,06
= 0,5 − 0,2422 = 0,2578

◮ A probabilidade de que entre 5 e 15 alunos recebam ajuda é de


 
5,5 − 12,5 15,5 − 12,5
P (5 ≤ X ≤ 15) ≈ P ≤Z≤
3,06 3,06
= P (−2,29 ≤ Z ≤ 0,98) = 0,8255

Anda mungkin juga menyukai