Случайные величины и их вероятностные характеристики.
Или
Или
где - символ объединения событий (логическая операция ИЛИ).
Из определения суммы событий непосредственно вытекают следующие соотношения:
А + А = А, А + U = U, A + V = A, A + B = B + A,
(A + B) + C = A + (B + C).
Произведением (или пересечением, или совмещением) событий А1, А2, А3, … называется такое событие А, которое происходит тогда и только тогда, когда происходят все события вместе («одновременно»). Для обозначения произведениясобытий применяются следующие записи:
где ∩ - символ пересечения событий (логическая операция И).
Для произведения событий справедливы соотношения:
АА = А, AV = V, AU = A, AB = BA, (AB)C = A(BC)
Понятия суммы и произведения употребляются здесь не в арифметическом смысле, а обозначают соответствующие логические операции.
В основе косвенных методов оценки вероятности сложного события Ачерез вероятности более простых событий А1, А2, …Аn базируется на использовании основных теорем теории вероятностей (теорем сложения и умножения вероятностей и их следствий).
Согласно теореме сложения вероятностей вероятность суммы двух событий равна сумме вероятностей этих событий минус вероятность их произведения:
(2.3)
Если события А и В несовместимы, то:
(2.4)
Формулы (2.3) и (2.4) обобщаются на сумму любого числа n событий:
(2.5)
(2.6)
Сумма вероятностей несовместимых событий, составляющих полную группу, равна единице:
(2.7)
Сумма вероятностей двух противоположных событий равна единице:
(2.8)
По теореме умножения вероятностей для двух событий вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого при условии, что произошло первое:
(2.9)
где P (A|B) -условная вероятность события А, т.е. вероятность события А, вычисленная в предположении, что имело место событие В.
Если событие А статически не зависит от события В, то P (A|B) = P(A), причем события А и В называются независимыми. При независимых событиях А и В выражение (2.9) принимает вид:
(2.10)
Формулы (2.9.) и (2.10.) обобщаются на nсобытий А1, А2, …Аn:
(2.9а)
(2.10а)
Решение многих практических задач требует совместного использования теорем сложения и умножения вероятностей. В частности, с помощью этих теорем производится расчет вероятности безотказной работы, например, радиотехнических систем.
Из формулы (2.9.) получаем:
(2.11)
Решение многих практических задач требует совместного использования теорем сложения и умножения вероятностей в частности с помощью этих теорем производится расчет вероятностей безотказной работы, например систем передачи информации.
Найдем вероятность Рn,k того, что при n независимых испытаниях, исходом которых может быть одно из двух противоположных событий А или Ā, событие А произойдет ровно k раз.
Вероятность события А обозначим Р(А) = Р, тогда Р(Ā) = 1 – Р. Вероятность конкретной комбинации исходов n независимых испытаний, когда при определенных k испытаниях появилось событие А, а при остальных n – k испытаниях – событие Ā,в соответствии с теоремой умножения вероятностей равна Pk (1 – P)n – k,независимо от того, в каком порядке чередовалисьв данной комбинации исходы событий А и Ā. Интересующее нас сложное событие представляет сумму всех исходов n-кратных испытаний, дающих k появлений события А. Поскольку исходы с разным порядком чередования событий А и Ā несовместны, а число исходов, дающих в разной последовательности k появлений события А в n испытаниях, равно числу сочетаний из nэлементов поk, то в соответствии с теоремой сложения вероятностей
(2.12)
(При решении многих задач целесообразно использовать «комбинаторные» способы, т.е. теорию Соединений (размещений, перестановок, сочетаний). В формуле (2.12)
– число сочетаний из n элементов по k. Формула (2.12) носит название биноминального закона.
Во многих реальных ситуациях то или иное событие А может появляться лишь как случайное следствие одного из несовместных событий Hi (i= 1, 2, …, n), которые входят в некоторую полную группу событий и называются гипотезами. В таких случаях безусловная вероятность P (A) события A при известных вероятностях гипотез P (Hi)и условных вероятностях P (A|Hi) определяется по формуле полной (или средней) вероятности:
(2.13)
При этих же данных, т.е. известных вероятностях P (Hi) и P (A|Hi), можно найти изменение вероятностей гипотез Hi, если предположить, что событие A уже произошло. Задачи подобного типа решаются с помощью теоремы гипотез (или формулы Байеса):
(2.14)
Вероятность P (Hi) называется априорной (доопытной), а P (A|Hi) – апостериорной (послеопытной), обратной вероятностью, или функцией правдоподобия той или иной гипотезы об исходе непосредственно не наблюдаемого явления H при известном исходе явления A, если только известны значения вероятностей P (Hj) исходов Hj (в сочетании с любым из исходов Аi) и значения условных вероятностей P (Ai|Hj).
Если случайная величина ξможет принимать конечное число дискретных значений xi,исчерпывающей вероятностной характеристикой ее служит распределение вероятностей этих значений Pi.(По аналогии со случайными функциями случайные величины обозначим буквами греческого алфавита, а их конкретные реализации – буквами латинского алфавита.)
Если случайная величина ξнепрерывна и может принимать любое значение на интервале [xmin, xmax], то ее статистической характеристикой может служить так называемый интегральный закон распределения F (x)=P(ξ<x), определяющий вероятность того, что случайная величина ξне превзойдет значение x. Из определения интегрального закона распределения вытекает следующее очевидное соотношение:
где – вероятность того, что случайная величина ξ не выйдет за пределы интервала [x1, x2].
Очевидны следующие свойства функции F(x): F(x) – монотонная неубывающая функция;
Если функция F(x)дифференцируемая, то в качестве вероятностной характеристики случайной величины удобно использовать дифференциальный закон распределения или закон распределения плотности вероятности
(2.15)
Очевидны следующие соотношения:
Помимо законов распределения, часто используются числовые характеристики случайных величин, так называемые моменты распределения. Моменты, характеризующие распределение случайных величин относительно нуля, называются начальными.
Для непрерывных случайных величин начальный момент k-го порядка определяется по формуле
(2.16)
Для дискретной случайной величины ξ, принимающей значения x1, x2, …, xnс вероятностями P1, P2, …, Pn,
(2.17)
Наиболее важное значение имеют моменты 1-го и 2-го порядков. Начальный момент 1-го порядка дает математическое ожидание или среднее значение случайной величины ξ:
(2.18)
Разность Δξ=ξ – m1(ξ) называется отклонением случайной величины. Моменты распределения отклонений случайной величины называютсяцентральными и обозначаются Mk(ξ). Нетрудно убедиться, что M1(ξ)=0.
Случайные величины с нулевым средним значением называются центрированными. Любые случайные величины можно свести к центрированным, если перейти к отклонениям Δξ.
Начальный момент 2-го порядка определяет средний квадрат случайной величины ξ:
(2.19)
Центральный момент 2-го порядка называется дисперсией случайной величины:
(2.20)
Отношение Δξ/σξ называется нормированным отклонением случайной величины.
Центральный и начальный момент 2-го порядка случайной величины связаны простым соотношением:
(2.21)
Для совокупности двух случайных величин ξ1 и ξ2 исчерпывающей вероятностной характеристикой служит двумерный интегральный закон распределения F(x1, x2)=P(ξ1<x1, ξ2<x2),определяющий вероятность того, что случайные величины ξ1 и ξ2 не превосходят соответственно значений x1 и x2. Если функция F(x1, x2) дифференцируемая, то вероятностной характеристикой двумерной случайной величины может служить двумерный дифференциальный закон распределения или двумерная плотность вероятностей ω2(x1, x2)=∂2F(x1, x2)/∂x1∂x2. Аналогично могут быть введены многомерный интегральный закон распределения и многомерные функции распределения для совокупностей из любого числа случайных величин.
Можно также ввести числовые характеристики для совокупности двух случайных величинξ1 и ξ2, имеющих двумерную плотность вероятностей ω2(x1, x2). Весьма важной числовой характеристикой совокупности двух случайных величин является смешанный второй центральный момент или ковариация случайных величин ξ1 и ξ2:
(2.22)
Если случайные величины ξ1 и ξ2 независимы, то ω2(x1, x2)=ω(x1)ω(x2), и двукратный интеграл в (2.22) распадается на произведения двух однократных интегралов:
и, следовательно, M2(ξ1, ξ2)=0. Поэтому ковариация M2(ξ1, ξ2) может служить некоторой мерой зависимости между двумя случайными величинами. Чаще в качестве такой меры принимают безразмерный коэффициент корреляции
Две случайные величины, для которых коэффициент корреляции равен нулю, называются некоррелированными. Случайные величины, для которых 1-й начальный момент их произведения
называют ортогональными. Если средние значения случайных величин равно нулю, то понятия ортогональности и некоррелированности случайных величин совпадают.
Моменты распределения того или иного порядка, являясь важными числовыми характеристиками случайной величины, не являются, однако, их однозначной полной статистической характеристикой: случайные величины, имеющие одинаковые 1-й и 2-й моменты, могут иметь разные законы распределения.