Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Pares de variáveis aleatórias Parte 1, Notas de estudo de Engenharia Informática

Pares de variáveis aleatórias Parte 1

Tipologia: Notas de estudo

2012

Compartilhado em 23/11/2012

wellington-cassio-faria-8
wellington-cassio-faria-8 🇧🇷

4.5

(37)

129 documentos

1 / 25

Toggle sidebar

Esta página não é visível na pré-visualização

Não perca as partes importantes!

bg1
Probabilidade e
Estatística
Aula 09
Pares de Variáveis Aleatórias
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19

Pré-visualização parcial do texto

Baixe Pares de variáveis aleatórias Parte 1 e outras Notas de estudo em PDF para Engenharia Informática, somente na Docsity!

Probabilidade e

Estatística

Aula 09

Pares de Variáveis Aleatórias

Leitura Prévia

  • Capítulo 4 do livro do Yates
    • Seções: 4.1 a 4.
    • Páginas 153 a 176
  • Capítulo 2 da apostila do Ynoguti
    • Seção 2.
  • Capítulo 3 da apostila do Ynoguti
    • Seção 3.1.4, 3.1.5, 3.1.6, 3.2.4, 3.2.

Duas linhas de produção fabricam um certo tipo de peça.

A capacidade de produção é de 5 peças na linha I e

3 peças na linha II.

O número de peças realmente produzidas em qualquer

linha pode ser visto como uma v.a.

( X , Y ) representa a v.a. bidimensional que fornece o número

de peças produzidas pela linha I e a linha II, respectivamente.

Exemplo

↓ Y X →^0 1 2 3 4 5 Soma 0 0 0,01 0,03 0,05 0,07 0,09 0, 1 0,01 0,02 0,04 0,05 0,06 0,08 0, 2 0,01 0,03 0,05 0,05 0,05 0,06 0, 3 0,01 0,02 0,04 0,06 0,06 0,05 0, Soma 0,03 0,08 0,16 0,21 0,24 0,28 1

p^ (^ xi , yj )^ = P ( X = x 1 , Y = yj )

Cada casa em cinza da tabela acima representa

Exemplo (continuação)

Densidades Marginais

∫ +∞ −∞

+∞ −∞

1 2 2 1

1 2 1 2

1 2 1

1 2 2

f x x dx f x

f x x dx f x

X X X

X X X

∫ ∫

+∞ −∞

+∞ − ∞

f ( x 1 , x 2 ) dx 1 dx 2 = F (∞,∞) = 1

F ( −∞, −∞) = F (−∞, x 2 ) = F ( x 1 ,−∞) = 0

Função Distribuição de Probabilidade Conjunta

= ≤ ≤ = ∫ (^) −∞ ∫−∞

1 2

1 2 (^1 ,^2 ) [^11 ,^22 ] 1 2 (^1 ,^2 )^12

x x

FX X x x P X x X x fX X u u du du

1

2

f 1 2 x 1 x 2 x x FX 1 X 2 x x

x

X X ∂ ∂

Exemplo

  • As variáveis aleatórias X e Y têm PDF

conjunta dada por:

( ) 

 ⋅ ⋅ ≤ ≤ ≤ ≤

0 casocontrário

4 0 1 , 0 1 , ,

x y x y f (^) X Y x y

X e Y são independentes?

Médias de uma função de duas variáveis

aleatórias

Sejam duas v.a.’s X e Y com fdp conjunta f (^) XY ( x , y ) e a v.a. Z definida por Z = g ( X , Y ). O valor médio de Z é dado por

∫ ∫

∞ −∞

∞ −∞

Z = E [ Z ]= g ( X , Y ) fXY ( x , y ) dxdy

Média da Soma de Funções

Se g 1 ( X , Y ), g 1 ( X , Y ),..., gn ( X , Y ) são funções de X e Y então

g 1 (^) ( X , Y )+ g 2 ( X , Y )++ gn ( X , Y )= g 1 ( X , Y )+ g 2 ( X , Y )++ gn ( X , Y )

E ( X + Y ) = E ( X ) + E ( Y )

E X + Y = E X + E Y

Média do produto de 2 v.a.’s independentes

Para variáveis aleatórias independentes, a média do produto é igual ao produto das médias individuais.

Este resultado pode ser estendido para qualquer número de v.a.’s independentes.

Resultado geral: Se X e Y são v.a.’s independentes então para Z = g 1 (X) g 2 ( Y ),temos que

Z = g 1 ( X ) g 2 ( Y ) = g 1 ( X ) g 2 ( Y )

E [ XY ] = E [ X ] E [ ] Y

Média Quadrática da Soma de duas v.a.’s

O valor quadrático médio de Z = X + Y é dado por

∫ ∫

∞ −∞

∞ − ∞

Z^2 = ( X + Y )^2 = ( x + y )^2 fXY ( x , y ) dxdy

Se X e Y forem independentes

( X + Y )^2 = X^2 + Y^2 + 2 X Y

Correlação

A correlação entre Xi e Xj é dada pelo momento conjunto

∫ ∫

∞ −∞

∞ −∞

ρ (^) ij = E [ XiX j ] = xixj fXi Xj ( xi , xj ) dxidxj

V.A’s estatisticamente independentes também são descorrelacionadas (entretanto o contrário nem sempre é verdade).

V.A.’s Independentes

[ ]

( ) ( ) [ ] [ ]

( , )

xy f x f y dxdy E X E Y

E XY xy f x y dxdy

X Y

XY

⋅ =

= ⋅ =

∫ ∫

∫ ∫ ∞

−∞

−∞

−∞

−∞

V.A.’s ortogonais

Duas v.a.’s Xi e Xj são ditas ortogonais se

E [ Xi X j ] = 0