logo

Решение контрольных по математике!!!

Home Методички по математике Теория вероятностей (Лекции) 19. Совместное распределение двух случайных величин

19. Совместное распределение двух случайных величин

Пусть пространство элементарных исходов W случайного эксперимента таково, что каждому исходу wij ставиться в соответствие значение случайной величины x, равное XI и значение случайной величины h, равное YJ.

Примеры:

1. Представим себе большую совокупность деталей, имеющих вид стержня. Случайный эксперимент заключается в случайном выборе одного стержня. Этот стержень имеет длину, которую будем обозначать x и толщину—h (можно указать другие параметры—объем, вес, чистота обработки, выраженная в стандартных единицах).

2. Если результат эксперимента—случайный выбор какого–либо предприятия в данной области, то за x можно принимать объем производства отнесенный к количеству сотрудников, а за h—объем продукции, идущей на экспорт, тоже отнесенной к числу сотрудников.

В этом случае мы можем говорить о совместном распределении случайных величин x и h или о “двумерной” случайной величине.

Если x и h дискретны и принимают конечное число значений (x – N значений, а h – K значений), то закон совместного распределения случайных величин x и h можно задать, если каждой паре чисел Xi, Yj (где Xi принадлежит множеству значений x, а Y j—множеству значений h) поставить в соответствие вероятность Pij, равную вероятности события, объединяющего все исходы wIj (и состоящего лишь из этих исходов), которые приводят к значениям

X = Xi; h = Y j.

Такой закон распределения можно задать в виде таблицы:

H

X

Y1

Y2

¼

Yj

¼

Yk

X1

Р11

Р12

¼

Р1J

¼

Р1K

P1

¼

¼

¼

¼

¼

¼

¼

¼

Xi

Рi1

Рi2

¼

Рij

¼

Рik

Pi

(*)

¼

¼

¼

¼

¼

¼

¼

¼

Xn

Рn1

Рn2

¼

Рnj

¼

Рnk

Pn

P1

P2

¼

Pj

¼

Pk

¼

Очевидно

Если просуммировать все Рij в I–й строке, то получим

Вероятность того, что случайная величина x примет значение xi. Аналогично, если просуммировать все РIj в J–м столбце, то получим

Вероятность того, что h принимает значение Y j.

Соответствие Xi ® Pi (= 1,2,¼,N) определяет закон распределения x, также как соответствие Yj ® P j (= 1,2,¼,K) определяет закон распределения случайной величины h.

Очевидно , .

Раньше мы говорили, что случайные величины x и h независимы, если

Pij=Pi×P j (i=1,2,¼,n; j=1,2,¼,K).

Если это не выполняется, то x и h зависимы.

В чем проявляется зависимость случайных величин x и h и как ее выявить из таблицы?

Рассмотрим столбец Y1. Каждому числу Xi поставим в соответствие число

Pi/1= (1)

Которое будем называть условной вероятностью x= Xi при h=Y1. Обратите внимание на то, что это не вероятность Pi события x= Xi, и сравните формулу (1) с уже известной формулой условной вероятности .

Соответствие

Xi®Рi/1, (I=1,2,¼,N)

Будем называть условным распределением случайной величины x при h=Y1. Очевидно .

Аналогичные условные законы распределения случайной величины x можно построить при всех остальных значениях h, равных Y2; y3,¼, Yn ,ставя в соответствие числу Xi условную вероятность Pi/j = ().

В таблице приведён условный закон распределения случайной величины x при h=Yj

X

X1

X2

¼

Xi

¼

Xn

Pi/j

¼

¼

Можно ввести понятие условного математического ожидания x при h = Yj

Заметим, что x и h равноценны. Можно ввести условное распределение h при x=Xi Соответствием

(= 1,2,¼,K)

Также можно ввести понятие условного математического ожидания случайной величины h при x=Xi :

Из определения следует, что если x и h независимы, то все условные законы распределения одинаковы и совпадают с законом распределения x (напоминаем, что закон распределения x определяется в таблице (*) первым и последним столбцом). При этом очевидно, совпадают все условные математические ожидания М(x/h = Yj) при = 1,2,¼,K, которые равны Мx.

Если условные законы распределения x при различных значениях h различны, то говорят, что между x и h имеет место статистическая зависимость.

Пример I. Пусть закон совместного распределения двух случайных величин x и h задан следующей таблицей. Здесь, как говорилось ранее, первый и последний столбцы определяют закон распределения случайной величины x, а первая и последняя строки – закон распределения случайной величины h.

H

X

1

2

3

10

1/36

0

0

1/36

20

2/36

1/36

0

3/36

30

2/36

3/36

2/36

7/36

40

1/36

8/36

16/36

25/36

6/36

12/36

18/36

Полигоны условных распределений можно изобразить на трехмерном графике (рис. 1).

Здесь явно просматри­вается зависимость услов­ного закона распределения x от величины h.

Пример II. (Уже встре­чавшийся).

Пусть даны две неза­висимые случайные вели­чины x и h с законами распределения

X

0

1

H

1

2

Р

1/3

2/3

Р

3/4

1/4

Найдем законы распределений случайных величин a=x+h и b=x*h

A

1

2

3

B

0

1

2

Р

3/12

7/12

2/12

Р

4/12

6/12

2/12

Построим таблицу закона совместного распределения a и b.

B

A

0

1

2

1

3/12

0

0

3/12

2

1/12

6/12

0

7/12

3

0

0

2/12

2/12

4/12

6/12

2/12

Чтобы получить a=2 и b=0, нужно чтобы x приняла значение 0, а h приняла значение 2. Так как x и h независимы, то

Р(a=2; b=0)= Р(x=0; h=2)=Р(x=0)*Р(h=2)=1/12.

Очевидно также Р(a=3; b=0)=0.

Построим полигоны условных распределений. Здесь зависимость a от b довольно близка к функ­циональной: значению b=1 соответствует единст­венное a=2, значению b=2 соот­ветствует единственное a=3, но при b=0 мы можем говорить лишь, что a с вероят­ностью принимает значение 1 и с вероят­ностью – значение 2.

Пример III.

Рассмотрим закон совместного распределения x и h, заданный таблицей

H

X

0

1

2

1

1/30

3/30

2/30

1/5

2

3/30

9/30

6/30

3/5

3

1/30

3/30

2/30

1/5

1/6

3/6

2/6

В этом случае выполняется условие P(x=Xi; h=Yj)=P(x=Xi)*P(h=Yj), i=1,2,3¼; J=1,2,3,¼

Построим законы условных распределений

X

1

2

3

1/5

3/5

1/5

Законы условных распределений не отличаются друг от друга при h=1,2,3 и совпадают с законом распределения случайной величины x.

В данном случае x и h независимы.

Характеристикой зависимости между случайными величинами x и h служит математическое ожидание произведения отклонений x и h от их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется коэффициентом ковариации или просто ковариацией.

Cov(x; h) = M((x–MX)(h–MH))

Пусть x = {X1, X2, x3,¼, Xn}, h = {Y1, y2, y3,¼,Yn}. Тогда

Cov(x; h)= (2)

Эту формулу можно интерпретировать так. Если при больших значениях x более вероятны большие значения h, а при малых значениях x более вероятны малые значения h, то в правой части формулы (2) положительные слагаемые доминируют, и ковариация принимает положительные значения.

Если же более вероятны произведения (Xi – MX)(Yj – MH), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям x в основном приводят к малым значениям h и наоборот, то ковариация принимает большие по модулю отрицательные значения.

В первом случае принято говорить о прямой связи: с ростом x случайная величина h имеет тенденцию к возрастанию.

Во втором случае говорят об обратной связи: с ростом x случайная величина h имеет тенденцию к уменьшению или падению.

Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения (Xi – MX)(Yj – MH)Pij, то можно сказать, что в сумме они будут “гасить” друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой.

Легко показать, что если

P((x = Xi)∩(h = Yj)) = P(x = Xi)P(h = Yj) (= 1,2,¼,N; = 1,2,¼,K),

òî cov(x; h)= 0.

Действительно из (2) следует

Здесь использовано очень важное свойство математического ожидания: математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю.

Доказательство (для дискретных случайных величин с конечным числом значений).

Ковариацию удобно представлять в виде

Cov(x; h)=M(xh–xMH–hMX+MXMH)=M(xh)–M(xMH)–M(hMX)+M(MXMH)=

=M(xh)–MHMX–MXMH+MXMH=M(xh)–MXMH

Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий.

Легко доказывается следующее свойство математического ожидания: если x и h—независимые случайные величины, то М(xh)=МXМH. (Доказать самим, используя формулу M(xh) = )

Таким образом, для независимых случайных величин x и h cov(x;h)=0.

 
Яндекс.Метрика
Наверх