19. Совместное распределение двух случайных величин
Пусть пространство элементарных исходов W случайного эксперимента таково, что каждому исходу wij ставиться в соответствие значение случайной величины x, равное XI и значение случайной величины h, равное YJ.
Примеры:
1. Представим себе большую совокупность деталей, имеющих вид стержня. Случайный эксперимент заключается в случайном выборе одного стержня. Этот стержень имеет длину, которую будем обозначать x и толщину—h (можно указать другие параметры—объем, вес, чистота обработки, выраженная в стандартных единицах).
2. Если результат эксперимента—случайный выбор какого–либо предприятия в данной области, то за x можно принимать объем производства отнесенный к количеству сотрудников, а за h—объем продукции, идущей на экспорт, тоже отнесенной к числу сотрудников.
В этом случае мы можем говорить о совместном распределении случайных величин x и h или о “двумерной” случайной величине.
Если x и h дискретны и принимают конечное число значений (x – N значений, а h – K значений), то закон совместного распределения случайных величин x и h можно задать, если каждой паре чисел Xi, Yj (где Xi принадлежит множеству значений x, а Y j—множеству значений h) поставить в соответствие вероятность Pij, равную вероятности события, объединяющего все исходы wIj (и состоящего лишь из этих исходов), которые приводят к значениям
X = Xi; h = Y j.
Такой закон распределения можно задать в виде таблицы:
H X |
Y1 |
Y2 |
¼ |
Yj |
¼ |
Yk | ||
X1 |
Р11 |
Р12 |
¼ |
Р1J |
¼ |
Р1K |
P1 | |
¼ |
¼ |
¼ |
¼ |
¼ |
¼ |
¼ |
¼ | |
Xi |
Рi1 |
Рi2 |
¼ |
Рij |
¼ |
Рik |
Pi |
(*) |
¼ |
¼ |
¼ |
¼ |
¼ |
¼ |
¼ |
¼ | |
Xn |
Рn1 |
Рn2 |
¼ |
Рnj |
¼ |
Рnk |
Pn | |
|
P1 |
P2 |
¼ |
Pj |
¼ |
Pk |
¼ |
Очевидно
Если просуммировать все Рij в I–й строке, то получим
Вероятность того, что случайная величина x примет значение xi. Аналогично, если просуммировать все РIj в J–м столбце, то получим
Вероятность того, что h принимает значение Y j.
Соответствие Xi ® Pi (I = 1,2,¼,N) определяет закон распределения x, также как соответствие Yj ® P j (J = 1,2,¼,K) определяет закон распределения случайной величины h.
Очевидно , .
Раньше мы говорили, что случайные величины x и h независимы, если
Pij=Pi×P j (i=1,2,¼,n; j=1,2,¼,K).
Если это не выполняется, то x и h зависимы.
В чем проявляется зависимость случайных величин x и h и как ее выявить из таблицы?
Рассмотрим столбец Y1. Каждому числу Xi поставим в соответствие число
Pi/1= (1)
Которое будем называть условной вероятностью x= Xi при h=Y1. Обратите внимание на то, что это не вероятность Pi события x= Xi, и сравните формулу (1) с уже известной формулой условной вероятности .
Соответствие
Xi®Рi/1, (I=1,2,¼,N)
Будем называть условным распределением случайной величины x при h=Y1. Очевидно .
Аналогичные условные законы распределения случайной величины x можно построить при всех остальных значениях h, равных Y2; y3,¼, Yn ,ставя в соответствие числу Xi условную вероятность Pi/j = ().
В таблице приведён условный закон распределения случайной величины x при h=Yj
X |
X1 |
X2 |
¼ |
Xi |
¼ |
Xn |
Pi/j |
¼ |
¼ |
Можно ввести понятие условного математического ожидания x при h = Yj
Заметим, что x и h равноценны. Можно ввести условное распределение h при x=Xi Соответствием
(J = 1,2,¼,K)
Также можно ввести понятие условного математического ожидания случайной величины h при x=Xi :
Из определения следует, что если x и h независимы, то все условные законы распределения одинаковы и совпадают с законом распределения x (напоминаем, что закон распределения x определяется в таблице (*) первым и последним столбцом). При этом очевидно, совпадают все условные математические ожидания М(x/h = Yj) при J = 1,2,¼,K, которые равны Мx.
Если условные законы распределения x при различных значениях h различны, то говорят, что между x и h имеет место статистическая зависимость.
Пример I. Пусть закон совместного распределения двух случайных величин x и h задан следующей таблицей. Здесь, как говорилось ранее, первый и последний столбцы определяют закон распределения случайной величины x, а первая и последняя строки – закон распределения случайной величины h.
H X |
1 |
2 |
3 | |
10 |
1/36 |
0 |
0 |
1/36 |
20 |
2/36 |
1/36 |
0 |
3/36 |
30 |
2/36 |
3/36 |
2/36 |
7/36 |
40 |
1/36 |
8/36 |
16/36 |
25/36 |
6/36 |
12/36 |
18/36 |
Полигоны условных распределений можно изобразить на трехмерном графике (рис. 1).
Здесь явно просматривается зависимость условного закона распределения x от величины h.
Пример II. (Уже встречавшийся).
Пусть даны две независимые случайные величины x и h с законами распределения
X |
0 |
1 |
H |
1 |
2 | |
Р |
1/3 |
2/3 |
Р |
3/4 |
1/4 |
Найдем законы распределений случайных величин a=x+h и b=x*h
A |
1 |
2 |
3 |
B |
0 |
1 |
2 | |
Р |
3/12 |
7/12 |
2/12 |
Р |
4/12 |
6/12 |
2/12 |
Построим таблицу закона совместного распределения a и b.
B A |
0 |
1 |
2 | |
1 |
3/12 |
0 |
0 |
3/12 |
2 |
1/12 |
6/12 |
0 |
7/12 |
3 |
0 |
0 |
2/12 |
2/12 |
4/12 |
6/12 |
2/12 |
Чтобы получить a=2 и b=0, нужно чтобы x приняла значение 0, а h приняла значение 2. Так как x и h независимы, то
Р(a=2; b=0)= Р(x=0; h=2)=Р(x=0)*Р(h=2)=1/12.
Очевидно также Р(a=3; b=0)=0.
Построим полигоны условных распределений. Здесь зависимость a от b довольно близка к функциональной: значению b=1 соответствует единственное a=2, значению b=2 соответствует единственное a=3, но при b=0 мы можем говорить лишь, что a с вероятностью принимает значение 1 и с вероятностью – значение 2.
Пример III.
Рассмотрим закон совместного распределения x и h, заданный таблицей
H X |
0 |
1 |
2 | |
1 |
1/30 |
3/30 |
2/30 |
1/5 |
2 |
3/30 |
9/30 |
6/30 |
3/5 |
3 |
1/30 |
3/30 |
2/30 |
1/5 |
1/6 |
3/6 |
2/6 |
В этом случае выполняется условие P(x=Xi; h=Yj)=P(x=Xi)*P(h=Yj), i=1,2,3¼; J=1,2,3,¼
Построим законы условных распределений
X |
1 |
2 |
3 |
1/5 |
3/5 |
1/5 |
Законы условных распределений не отличаются друг от друга при h=1,2,3 и совпадают с законом распределения случайной величины x.
В данном случае x и h независимы.
Характеристикой зависимости между случайными величинами x и h служит математическое ожидание произведения отклонений x и h от их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется коэффициентом ковариации или просто ковариацией.
Cov(x; h) = M((x–MX)(h–MH))
Пусть x = {X1, X2, x3,¼, Xn}, h = {Y1, y2, y3,¼,Yn}. Тогда
Cov(x; h)= (2)
Эту формулу можно интерпретировать так. Если при больших значениях x более вероятны большие значения h, а при малых значениях x более вероятны малые значения h, то в правой части формулы (2) положительные слагаемые доминируют, и ковариация принимает положительные значения.
Если же более вероятны произведения (Xi – MX)(Yj – MH), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям x в основном приводят к малым значениям h и наоборот, то ковариация принимает большие по модулю отрицательные значения.
В первом случае принято говорить о прямой связи: с ростом x случайная величина h имеет тенденцию к возрастанию.
Во втором случае говорят об обратной связи: с ростом x случайная величина h имеет тенденцию к уменьшению или падению.
Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения (Xi – MX)(Yj – MH)Pij, то можно сказать, что в сумме они будут “гасить” друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой.
Легко показать, что если
P((x = Xi)∩(h = Yj)) = P(x = Xi)P(h = Yj) (I = 1,2,¼,N; J = 1,2,¼,K),
òî cov(x; h)= 0.
Действительно из (2) следует
Здесь использовано очень важное свойство математического ожидания: математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю.
Доказательство (для дискретных случайных величин с конечным числом значений).
Ковариацию удобно представлять в виде
Cov(x; h)=M(xh–xMH–hMX+MXMH)=M(xh)–M(xMH)–M(hMX)+M(MXMH)=
=M(xh)–MHMX–MXMH+MXMH=M(xh)–MXMH
Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий.
Легко доказывается следующее свойство математического ожидания: если x и h—независимые случайные величины, то М(xh)=МXМH. (Доказать самим, используя формулу M(xh) = )
Таким образом, для независимых случайных величин x и h cov(x;h)=0.
< Предыдущая | Следующая > |
---|