Курсовая работа: Математическая статистика
ИДА Кривой Рог IBM
Частное Учебное Заведение
Институт Делового Администрирования
Private Educational Institution
Institute of Business Managment
Кафедра информационных систем
и
высшей математики
Математическая cтатистика
Конспект лекций
для специальностей УА, ФК 1995
© Г.И. Корнилов
1997
Введение в курс Основные определения
Несмотря на многообразие используемых в литературе определений термина “статистика”, суть большинства из них сводится к тому, что статистикой чаще всего называют науку, изучающую методы сбора и обработки фактов и данных в области человеческой деятельности и природных явлений.
В нашем курсе, который можно считать введением в курс “Экономическая статистика”, речь будет идти о так называемой прикладной статистике, - т.е. только о сущности специальных методов сбора, обработки и анализа информации и, кроме того, о практических приемах выполнения связанных с этим расчетов.
Великому американскому сатирику О’Генри принадлежит ироническое определение статистики: “Есть три вида лжи - просто ложь, ложь злостная и …статистика!”. Попробуем разобраться в причинах, побудивших написать эти слова.
Практически всему живому на земле присуще воспринимать окружающую среду как непрерывную последовательность фактов, событий. Этим же свойством обладают и люди, с той лишь разницей, что только им дано анализировать поступающую информацию и (хотя и не всем из них это удается) делать выводы из такого анализа и учитывать их в своей сознательной деятельности. Поэтому можно смело утверждать, что во все времена, все люди занимались и занимаются статистическими “исследованиями”, даже не зная иногда такого слова - “статистика”.
Все наши наблюдения над окружающем нас миром можно условно разделить на два класса:
· наблюдения за фактами - событиями, которые могут произойти или не произойти;
· наблюдения за физическими величинами, значения которых в момент наблюдения могут быть различными.
И атеист и верующий в бога человек, скорее всего, согласятся с несколько необычным заявлением - в окружающем нас мире происходят только случайные события, а наблюдаемые нами значения всех показателей внешней среды являются случайными величинами (далее везде – СВ) . Более того, далее будет показано, что иногда можно использовать только одно понятие - случайное событие.
Не задерживаясь на раскрытии философской сущности термина “случайность” (вполне достаточно обычное, житейское представление), обратимся к чрезвычайно важному понятию - вероятность. Этот термин обычно используют по отношению к событию и определяют числом (от 0 до 1), выражающим степень нашей уверенности в том, что данное событие произойдет. События с вероятностью 0 называют невозможными, а события с вероятностью 1 - достоверными (хотя это уже – неслучайные, детерминированные события).
Иногда в прикладной статистике приходится иметь дело с так называемыми редкими (маловероятными) событиями. К ним принято относить события, значение вероятности которых не превышает определенного уровня, чаще всего – 0.05 или 5 %.
В тех случаях, когда профессионалу- статистику приходится иметь дело со случайными величинами, последние часто делят на две разновидности:
· дискретные СВ, которые могут принимать только конкретные, заранее оговоренные значения (например, - значения чисел на верхней грани брошенной игральной кости или порядковые значения текущего месяца);
· непрерывные СВ (чаще всего - значения некоторых физических величин: веса, расстояния, температуры и т.п.), которые по законам природы могут принимать любые значения, хотя бы и в некотором интервале.
Вероятности случайных событий
Итак, основным “показателем” любого события (факта) А является численная величина его вероятности P(A), которая может принимать значения в диапазоне [0…1] - в зависимости от того, насколько это событие случайно. Такое, смысловое, определение вероятности не дает, однако, возможности указать путь для вычисления ее значения.
Поэтому необходимо иметь и другое, отвечающее требованиям практической работы, определение термина “вероятность”. Это определение можно дать на основании житейского опыта и обычного здравого смысла.
Если мы интересуемся событием A, то, скорее всего, можем наблюдать, фиксировать факты его появления. Потребность в понятии вероятности и ее вычисления возникнет, очевидно, только тогда, когда мы наблюдаем это событие не каждый раз, либо осознаем, что оно может произойти, а может не произойти. И в том и другом случае полезно использовать понятие частоты появления события fA - как отношения числа случаев его появления (благоприятных исходов или частостей) к общему числу наблюдений.
Интуиция подсказывает, что частота наступления случайного события зависит не только от степени случайности самого события. Если мы наблюдали за событием всего пять раз и в трех случаях это событие произошло, то мало кто примет значение вероятности такого события равным 0.6 или 60 %. Скорее всего, особенно в случаях необходимости принятия каких–то важных, дорогостоящих решений любой из нас продолжит наблюдения. Здравый смысл подсказывает нам, что уж если в 100 наблюдениях событие произошло 14 раз, то мы можем с куда большей уверенностью полагать его вероятность равной 14 % .
Таким образом, мы (конечно же, - не первые) сформулировали второе определение понятия вероятности события - как предела, к которому стремится частота наблюдения за событием при непрерывном увеличении числа наблюдений. Теория вероятностей, специальный раздел математики, доказывает существование такого предела и сходимость частоты к вероятности при стремлении числа наблюдений к бесконечности. Это положение носит название центральной предельной теоремы или закона больших чисел.
Итак, первый ответ на вопрос - как найти вероятность события, у нас уже есть. Надо проводить эксперимент и устанавливать частоту наблюдений, которая тем точнее даст нам вероятность, чем больше наблюдений мы имеем.
Ну, а как быть, если эксперимент невозможен (дорог, опасен или меняет суть процессов, которые нас интересуют)? Иными словами, нет ли другого пути вычисления вероятности событий, без проведения экспериментов?
Такой путь есть, хотя, как ни парадоксально, он все равно основан на опыте, опыте жизни, опыте логических рассуждений. Вряд ли кто либо будет производить эксперименты, подбрасывая несколько сотен или тысячу раз симметричную монетку, чтобы выяснить вероятность появления герба при одном бросании! Вы будете совершенно правы, если без эксперимента найдете вероятность выпадения цифры 6 на симметричной игральной кости и т.д., и т.п.
Этот путь называется статистическим моделированием – использованием схемы случайных событий и с успехом используется во многих приложениях теоретической и прикладной статистики. Продемонстрируем этот путь, рассматривая вопрос о вероятностях случайных величин дальше. Обозначим величину вероятности того, что событие A не произойдет. Тогда из определения вероятности через частоту наступления события следует, что
P(A)+ = 1, {1–1}
что полезно читать так - вероятность того, что событие произойдет или не произойдет, равна 100 %, поскольку третьего варианта попросту нет.
Подобные логические рассуждения приведут нас к более общей формуле - сложения вероятностей. Пусть некоторое случайное событие может произойти только в одном из 5 вариантов, т.е. пусть имеется система из трех несовместимых событий A, B и C .
Тогда очевидно, что:
P(A) + P(B) + P(C) = 1; {1–2} и столь же простые рассуждения приведут к выражению для вероятности наступления одного из двух несовместимых событий (например, A или B):
P(AÈ B) = P(A) + P(B); {1–3} или одного из трех:
P(AÈ BÈ C) = P(A) + P(B) + P(C); {1-4} и так далее.
Рассмотрим чуть более сложный пример. Пусть нам надо найти вероятность события C, заключающегося в том, что при подбрасывании двух разных монет мы получим герб на первой (событие A) и на второй (событие B). Здесь речь идет о совместном наступлении двух независимых событий, т.е. нас интересует вероятность P(C) = P(AÇ B).
И здесь метод построения схемы событий оказывается чудесным помощником - можно достаточно просто доказать, что
P(AÇ B) =P(A)· P(B). {1-5} Конечно же, формулы {1-4} и {1-5} годятся для любого количества событий: лишь бы они были несовместными в первом случае и независимыми во втором.
Наконец, возникают ситуации, когда случайные события оказываются взаимно зависимыми. В этих случаях приходится различать условные вероятности:
P(A / B) – вероятность A при условии, что B уже произошло;
P(A / ) – вероятность A при условии, что B не произошло,
называя P(A) безусловной или полной вероятностью события A .
Выясним вначале связь безусловной вероятности события с условными. Так как событие A может произойти только в двух, взаимоисключающих вариантах, то, в соответствии с {1–3} получается, что
P(A) = P(A/B)· P(B) + P(A/)· P(). {1–6}
Вероятности P(A/B) и P(A/) часто называют апостериорными (“a posteriopri” – после того, как…), а безусловную вероятность P(A) – априорной (“a priori” – до того, как…).
Очевидно, что если первым считается событие B и оно уже произошло, то теперь наступление события A уже не зависит от B и поэтому вероятность того, что произойдут оба события составит
P(AÇ B) = P(A/B)· P(B). {1–7} Так как события взаимозависимы, то можно повторить наши выводы и получить
P(B) = P(B/A)· P(A) + P(B/)· P(); {1–8}
а также P(AÇ B) = P(B/A)· P(A). {1–9}
Мы доказали так называемую теорему Байеса
P(A/B)· P(B) = P(B/A)· P(B); {1–10} – весьма важное средство анализа, особенно в области проверки гипотез и решения вопросов управления на базе методов прикладной статистики.
Подведем некоторые итоги рассмотрения вопроса о вероятностях случайных событий. У нас имеются только две возможности узнать что либо о величине вероятности случайного события A:
· применить метод статистического моделирования - построить схему данного случайного события и (если у нас есть основания считать, что мы правильно ее строим) и найти значение вероятности прямым расчетом;
· применить метод статистического испытания - наблюдать за появлением события и затем по частоте его появления оценить вероятность.
На практике приходится использовать оба метода, поскольку очень редко можно быть абсолютно уверенным в примененной схеме события (недостаток метода моделирования) и столь же редко частота появления события достаточно быстро стабилизируется с ростом числа наблюдений (недостаток метода испытаний).
Распределения вероятностей случайных величин Шкалирование случайных величинКак уже отмечалось, дискретной называют величину, которая может принимать одно из счетного множества так называемых “допустимых” значений. Примеров дискретных величин, у которых есть некоторая именованная единица измерения, можно привести достаточно много.
Прежде всего, надо учесть тот факт что все физические величины (вес, расстояния, площади, объемы и т.д.) теоретически могут принимать бесчисленное множество значений, но практически - только те значения, которые мы можем установить измерительными приборами. А это значит, что в прикладной статистике вполне допустимо распространить понятие дискретных СВ на все без исключения численные описания величин, имеющих единицы измерения.
Вместе с тем надо не забывать, что некоторые СВ просто не имеют количественного описания, естественных единиц измерения (уровень знаний, качество продукции и т. п.).
Покажем, что для решения вопроса о “единицах измерения” любых СВ, с которыми приходится иметь дело в прикладной статистике, достаточно использовать четыре вида шкал.
· Nom. Первой из них рассмотрим так называемую номинальную шкалу — применяемую к тем величинам, которые не имеют природной единицы измерения. В ряде случаев нам приходится считать случайными такие показатели предметов или явлений окружающего нас мира, как марка автомобиля; национальность человека или его пол, социальное положение; цвет некоторого изделия и т.п.
В таких ситуациях можно говорить о случайном событии - "входящий в магазин посетитель оказался мужчиной", но вполне допустимо рассматривать пол посетителя как дискретную СВ, которая приняла одно из допустимых значений на своей номинальной шкале.
Итак, если некоторая величина может принимать на своей номинальной шкале значения X, Y или Z, то допустимыми считаются только выражения типа: X # Y, X=Z , в то время как выражения типа X ³ Z, X + Z не имеют никакого смысла.
· Ord. Второй способ шкалирования – использование порядковых шкал. Они незаменимы для СВ, не имеющих природных единиц измерения, но позволяющих применять понятия предпочтения одного значения другому. Типичный пример: оценки знаний (даже при числовом описании), служебные уровни и т. п. Для таких величин разрешены не только отношения равенства (= или #), но и знаки предпочтения (> или <). Очень часто порядковые шкалы называют ранговыми и говорят о рангах значений таких величин.
· Int. Для СВ, имеющих натуральные размерности (единицы измерения в прямом смысле слова), используется интервальная шкала. Для таких величин, кроме отношений равенства и предпочтения, допустимы операции сравнения – т. е. все четыре действия арифметики. Главная особенность таких шкал заключается в том, что разность двух значений на шкале (36 и 12) имеет один смысл для любого места шкалы (28 и 4). Вместе с тем на интервальной шкале не имеют никакого смысла отрицательные значения, - если это веса предметов, возраст людей и подобные им показатели.
· Rel. Если СВ имеет естественную единицу измерения (например, - температура по шкале Цельсия) и ее отрицательные значения столь же допустимы, как и положительные, то шкалу для такой величины называют относительной.
Методы использования описанных шкал относится к специальному разделу – так называемой непараметрической статистике и обеспечивают, по крайней мере, два неоспоримых преимущества.
· Появляется возможность совместного рассмотрения нескольких СВ совершенно разной природы (возраст людей и их национальная принадлежность, марка телевизора и его стоимость) на единой платформе - положения каждой из величин на своей собственной шкале.
· Если мы сталкиваемся с СВ непрерывной природы, то использование интервальной или относительной шкалы позволит нам иметь дело не со случайными величинами, а со случайными событиями — типа “вероятность того, что вес продукции находится в интервале 17 Кг”. Появляется возможность применения единого подхода к описанию всех интересующих нас показателей при статистическом подходе к явлениям окружающего нас мира.
Законы распределений дискретных случайных величин.Пусть некоторая СВ является дискретной, т.е. может принимать лишь фиксированные (на некоторой шкале) значения X i. В этом случае ряд значений вероятностей P(X i)для всех (i=1…n) допустимых значений этой величины называют её законом распределения.
В самом деле, - такой ряд содержит всю информацию о СВ, это максимум наших знаний о ней. Другое дело, - откуда мы можем получить эту информацию, как найти закон распределения? Попытаемся ответить на этот принципиально важный вопрос, используя уже рассмотренное понятие вероятности.
Точно также, как и для вероятности случайного события, для закона распределения СВ есть только два пути его отыскания. Либо мы строим схему случайного события и находим аналитическое выражение (формулу) вычисления вероятности (возможно, кто–то уже сделал или сделает это за нас!), либо придется использовать эксперимент и по частотам наблюдений делать какие–то предположения (выдвигать гипотезы) о законе распределения.
Заметим, что во втором случае нас будет ожидать новый вопрос, - а какова уверенность в том, что наша гипотеза верна? Какова, выражаясь языком статистики, вероятность ошибки при принятии гипотезы или при её отбрасывании?
Продемонстрируем первый путь отыскания закона распределения.
Пусть важной для нас случайной величиной является целое число, образуемое по следующему правилу: мы трижды бросаем симметричную монетку, выпадение герба считаем числом 1 (в противном случае 0) и после трех бросаний определяем сумму S.
Ясно, что эта сумма может принимать любое значение в диапазоне 0…3, но всё же - каковы вероятности P(S=0), P(S=1), P(S=2), P(S=3); что можно о них сказать, кроме очевидного вывода - их сумма равна 1?
Попробуем построить схему интересующих нас событий. Обозначим через p вероятность получить 1 в любом бросании, а через q=(1–p) вероятность получить 0. Сообразим, что всего комбинаций ровно 8 (или 23), а поскольку монетка симметрична, то вероятность получить любую комбинацию трех независимых событий (000,001,010…111) одна и та же: q3 = q2· p =…= p3 = 0.125 . Но если p # q , то варианты все тех же восьми комбинаций будут разными:
Таблица 1- 1
Первое бросание |
0 |
0 |
0 |
0 |
1 |
1 |
1 |
1 |
Второе бросание |
0 |
0 |
1 |
1 |
0 |
0 |
1 |
1 |
Третье бросание |
0 |
1 |
0 |
1 |
0 |
1 |
0 |
1 |
Сумма S |
0 |
1 |
1 |
2 |
1 |
2 |
2 |
3 |
Вероятность P(S) |
q3 |
q2· p |
q2· p |
q· p2 |
q2· p |
q· p2 |
q· p2 |
p3 |
Запишем то, что уже знаем - сумма вероятностей последней строки должна быть равна единице:
p3 +3· qp2 + 3· q2· p + q3 = (p + q)3 = 1.
Перед нами обычный бином Ньютона 3-й степени, но оказывается - его слагаемые четко определяют вероятности значений случайной величины S !
Мы “открыли” закон распределения СВ, образуемой суммированием результатов n последовательных наблюдений, в каждом из которых может появиться либо 1 (с вероятностью p), либо 0 (с вероятностью 1– p).
Итог этого открытия достаточно скромен:
· возможны всего N = 2 n вариантов значений суммы;
· вероятности каждого из вариантов определяются элементами разложения по
степеням бинома (p + q) n ;
· такому распределению можно дать специальное название - биномиальное.
Конечно же, мы опоздали со своим открытием лет на 300, но, тем не менее, попытка отыскания закона распределения с помощью построения схемы событий оказалась вполне успешной.
В общем случае биномиальный закон распределения позволяет найти вероятность события S = k в виде
P(S=k)=· pk· (1– p)n-k, {2–1} где - т.н. биномиальные коэффициенты, отыскиваемые из известного “треугольника Паскаля” или по правилам комбинаторики - как число возможных сочетаний из n элементов по k штук в каждом:
= n· (n –1)· ...· (n – k + 1)/ (1· 2· .... · k). {2–2}
Многие дискретные СВ позволяют построить схему событий для вычисления вероятности каждого из допустимых для данной случайной величины значений.
Конечно же, для каждого из таких, часто называемых "классическими", распределений уже давно эта работа проделана – широко известными и очень часто используемыми в прикладной статистике являются биномиальное и полиномиальное распределения, геометрическое и гипергеометрическое, распределение Паскаля и Пуассона и многие другие.
Для почти всех классических распределений немедленно строились и публиковались специальные статистические таблицы, уточняемые по мере увеличения точности расчетов. Без использования многих томов этих таблиц, без обучения правилам пользования ими последние два столетия практическое использование статистики было невозможно.
Сегодня положение изменилось – нет нужды хранить данные расчетов по формулам (как бы последние не были сложны!), время на использование закона распределения для практики сведено к минутам, а то и секундам.
Уже сейчас существует достаточное количество разнообразных пакетов прикладных компьютерных программ для этих целей. Кроме того, создание программы для работы с некоторым оригинальным, не описанным в классике распределением не представляет серьезных трудностей для программиста “средней руки”.
Приведем примеры нескольких распределений для дискретных СВ с описанием схемы событий и формулами вычисления вероятностей. Для удобства и наглядности будем полагать, что нам известна величина p – вероятность того, что вошедший в магазин посетитель окажется покупателем и обозначая (1– p) = q.
· Биномиальное распределение
Если X – число покупателей из общего числа n посетителей, то вероятность P(X= k) = · pk· qn-k .
· Отрицательное биномиальное распределение (распределение Паскаля)
Пусть Y – число посетителей, достаточное для того, чтобы k из них оказались покупателями. Тогда вероятность того, что n–й посетитель окажется k–м покупателем составит P(Y=n) =· pk · qn–k.
· Геометрическое распределение
Если Y – число посетителей, достаточное для того, чтобы один из них оказался
покупателем, то P(Y=1) = p · qn–1.
· Распределение Пуассона
Если ваш магазин посещают довольно часто, но при этом весьма редко делают покупки, то вероятность k покупок в течение большого интервала времени, (например, – дня) составит P(Z=k) = l k · Exp(-l ) / k! , где l – особый показатель распределения, так называемый его параметр.
Односторонние и двухсторонние значения вероятностей
Если нам известен закон распределения СВ (пусть – дискретной), то в этом случае очень часто приходится решать задачи, по крайней мере, трех стандартных типов:
· какова вероятность того, что случайная величина X окажется равной (или наоборот – не равной) некоторому значению, например – Xk ?
· какова вероятность того, что случайная величина X окажется больше (или наоборот – меньше) некоторого значения, например – Xk ?
· какова вероятность того, что случайная величина X окажется не меньше Xi и при этом не больше Xk ?
Первую вероятность иногда называют "точечной", ее можно найти из закона распределения, но только для дискретной случайной величины. Разумеется, что вероятность равенства задана самим законом распределения, а вероятность неравенства составляет
P(X#Xk) = 1 – P(X=Xk).
Вторую вероятность принято называть "односторонней". Вычислять ее также достаточно просто – как сумму вероятностей всех допустимых значений, равных и меньших Xk . Для примера "открытого" нами закона биномиального распределения при p=0.5 и m=4 одностороння вероятность того, что X окажется менее 3 (т.е.0, 1 или 2), составит точно 0.0625+0.25+0.375=0.6875.
Вероятность третьего типа называют "двухсторонней" и вычисляют как сумму вероятностей значений X внутри заданного интервала. Для предыдущего примера вероятность того, что X менее 4 и более 1 составит 0.375+0.25=0.625.
Односторонняя и двухсторонняя вероятности являются универсальными понятиями – они применимы как для дискретных, так и для непрерывных случайных величин.
Моменты распределений дискретных случайных величин.Итак, закон распределения вероятностей дискретной СВ несет в себе всю информацию о ней и большего желать не приходится.
Не будет лишним помнить, что этот закон (или просто – распределение случайной величины) можно задать тремя способами:
· в виде формулы: например, для биномиального распределения при n=3 и p=0.5 вероятность значения суммы S=2 составляет 0.375;
· в виде таблицы значений величины и соответствующих им вероятностей:
· в виде диаграммы или, как ее иногда называют, гистограммы распределения:
Таблица 2–1
Сумма |
0 |
1 |
2 |
3 |
Вероятность |
0.125 |
0.375 |
0.375 |
0.125 |
Рис. 2–1 Гистограмма распределения
Необходимость рассматривать вопрос, поставленный в заглавии параграфа, не так уж и очевидна, поскольку непонятно, что же еще нам надо знать?
Между тем, все достаточно просто. Пусть, для какого–то реального явления или процесса мы сделали допущение (выдвинули гипотезу), что соответствующая СВ принимает свои значения в соответствии с некоторой схемой событий. Рассчитать вероятности по принятой нами схеме – не проблема!
Вопрос заключается в другом – как проверить свое допущение или, на языке статистики, оценить достоверность гипотезы?
По сути дела, кроме обычного наблюдения за этой СВ у нас нет иного способа выполнить такую проверку. И потом – в силу самой природы СВ мы не можем надеяться, что через достаточно небольшое число наблюдений их частоты превратятся в “теоретические” значения, в вероятности. Короче – результат наблюдения над случайной величиной тоже … случайная величина или, точнее, – множество случайных величин.
Так или примерно так рассуждали первые статистики–профессионалы. И у кого–то из них возникла простая идея: сжать информацию о результатах наблюдений до одного, единственного показателя!
Как правило, простые идеи оказываются предельно эффективными, поэтому способ оценки итогов наблюдений по одному, желательно “главному”, “центральному” показателю пережил все века становления прикладной статистики и по ходу дела обрастал как теоретическими обоснованиями, так и практическими приемами использования.
Вернемся к гистограмме рис. 2–1 и обратим внимание на два, бросающихся в глаза факта:
· “наиболее вероятными” являются значения суммы S=1 и S=2 и эти же значения лежат “посредине” картинки;
· вероятность того, что сумма окажется равной 0 или 1, точно такая же, как и вероятность 2 или 3, причем это значение вероятности составляет точно 50 %.
Напрашивается простой вопрос – если СВ может принимать значения 0, 1, 2 или 3, то сколько в среднем составляет ее значение или, иначе – что мы ожидаем, наблюдая за этой величиной?
Ответ на такой вопрос на языке математической статистики состоит в следующем. Если нам известен закон распределения, то, просуммировав произведения значений суммы S на соответствующие каждому значению вероятности, мы найдем математическое ожидание этой суммы как дискретной случайной величины –
M(S) = S S i · P(S i). {2–3}
В рассматриваемом нами ранее примере биномиального распределения, при значении p=0.5, математическое ожидание составит
M(S) = 0· 0.125+1· 0.375+2· 0.375+3· 0.125= 1.5 .
Обратим внимание на то, что математическое ожидание дискретной величины типа Int или Rel совсем не обязательно принадлежит к множеству допустимых ее значений. Что касается СВ типа Nom или Ord, то для них понятие математического ожидания (по закону распределения), конечно же, не имеет смысла. Но так как с номинальной, так и с порядковой шкалой дискретных СВ приходится иметь дело довольно часто, то в этих случаях прикладная статистика предлагает особые, непараметрические методы.
Продолжим исследование свойств математического ожидания и попробуем в условиях нашего примера вместо S рассматривать U= S – M(S). Такая замена СВ (ее часто называют центрированием) вполне корректна: по величине U всегда можно однозначно определить S и наоборот.
Если теперь попробовать найти математическое ожидание новой (не обязательно дискретной) величины M(U) , то оно окажется равным нулю, независимо от того считаем ли мы конкретный пример или рассматриваем такую замену в общем виде.
Мы обнаружили самое важное свойство математического ожидания – оно является “центром” распределения. Правда, речь идет вовсе не о делении оси допустимых значений самой СВ на две равные части. Поистине – первый показатель закона распределения “самый главный” или, на языке статистики, – центральный.
Итак, для СВ с числовым описанием математическое ожидание имеет достаточно простой смысл и легко вычисляется по законам распределения. Заметим также, что математическое ожидание – просто числовая величина (в общем случае не дискретная, а непрерывная) и никак нельзя считать ее случайной.
Другое дело, что эта величина зависит от внутренних параметров распределения (например, – значения вероятности р числа испытаний n биномиальном законе).
Так для приведенных выше примеров дискретных распределений математическое ожидание составляет:
Тип распределения |
Математическое ожидание |
Биномиальное |
n· p |
Распределение Паскаля |
k · q / p |
Геометрическое распределение |
q / p |
Распределение Пуассона |
l |
Возникает вопрос – так что же еще надо? Ответ на этот вопрос можно получить как из теории, так и из практики.
Один из разделов кибернетики – теория информации (курс “Основы теории информационных систем” у нас впереди) в качестве основного положения утверждает, что всякая свертка информации приводит к ее потере. Уже это обстоятельство не позволяет допустить использование только одного показателя распределения СВ – ее математического ожидания.
Практика подтверждает это. Пусть мы построили (или использовали готовые) законы распределения двух случайных величин X и Y и получили следующие результаты:
Таблица 2–2
Значения |
1 |
2 |
3 |
4 |
P(X) % |
12 |
38 |
38 |
12 |
P(Y) % |
30 |
20 |
20 |
30 |
Рис. 2–2
Простое рассмотрение табл.2–2 или соответствующих гистограмм рис.2–2 приводит к выводу о равенстве M(X) = M(Y) = 0.5 , но вместе с тем столь же очевидно, что величина X является заметно “менее случайной”, чем Y.
Приходится признать, что математическое ожидание является удобным, легко вычислимым, но весьма неполным способом описания закона распределения. И поэтому требуется еще как–то использовать полную информацию о случайной величине, свернуть эту информацию каким–то иным способом.
Обратим внимание, что большие отклонения от M(X) у величины X маловероятны, а у величины Y – наоборот. Но при вычислении математического ожидания мы, по сути дела “усредняем” именно отклонения от среднего, с учетом их знаков. Стоит только “погасить” компенсацию отклонений разных знаков и сразу же первая СВ действительно будет иметь показатель разброса данных меньше, чем у второй. Именно такую компенсацию мы получим, усредняя не сами отклонения от среднего, а квадраты этих отклонений.
Соответствующую величину
D(X) = S (X i – M(X))2 · P(X i); {2–4} принято называть дисперсией распределения дискретной СВ.
Ясно, что для величин, имеющих единицу измерения, размерность математического ожидания и дисперсии оказываются разными. Поэтому намного удобнее оценивать отклонения СВ от центра распределения не дисперсией, а квадратным корнем из нее – так называемым среднеквадратичным отклонением s , т.е. полагать
s 2 = D(X). {2–5}
Теперь оба параметра распределения (его центр и мера разброса) имеют одну размерность, что весьма удобно для анализа.
Отметим также, что формулу {2–3} часто заменяют более удобной
D(X) = S (X i)2 · P(X i) – M(X)2. {2–6}
Весьма полезно будет рассмотреть вопрос о предельных значениях дисперсии.
Подобный вопрос был бы неуместен по отношению к математическому ожиданию – мало ли какие значения может иметь дискретная СВ, да еще и со шкалой Int или Rel.
Но дословный перевод с латыни слова “дисперсия” означает “рассеяние”, “разброс” и поэтому можно попытаться выяснить – чему равна дисперсия наиболее или наименее “разбросанной” СВ? Скорее всего, наибольший разброс значений (относительно среднего) будет иметь дискретная случайная величина X, у которой все n допустимых значений имеют одну и ту же вероятность 1/n. Примем для удобства Xmin и Xmax (пределы изменения данной величины), равными 1 и n соответственно.
Математическое ожидание такой, равномерно распределенной случайной величины составит M(X) = (n+1)/2 и остается вычислить дисперсию, которая оказывается равной D(X) = S (Xi)2/n – (n+1)2/4 = (n2–1)/ 12.
Можно доказать, что это наибольшее значение дисперсии для дискретной СВ со шкалой Int или Rel .
Последнее выражение позволяет легко убедиться, что при n =1 дисперсия оказывается равной нулю – ничего удивительного: в этом случае мы имеем дело с детерминированной, неслучайной величиной.
Дисперсия, как и среднеквадратичное отклонение для конкретного закона распределения являются просто числами, в полном смысле показателями этого закона.
Полезно познакомиться с соотношениями математических ожиданий и дисперсий для упомянутых ранее стандартных распределений:
Таблица 2–3
Тип распределения |
Математическое ожидание |
Дисперсия |
Коэффициент вариации |
Биномиальное |
np |
npq |
Sqrt(q/n· p) |
Паскаля |
kq/p |
kq/p2 |
Sqrt(1/ kq) |
Геометрическое |
q/p |
q/p2 |
Sqrt(1/q) |
Пуассона |
l |
l |
Sqrt(1/l ) |
Можно ли предложить ещё один или несколько показателей – сжатых описаний распределения дискретной СВ? Разумеется, можно.
Первый показатель (математическое ожидание) и второй (дисперсия) чаще всего называют моментами распределения. Это связано со способами вычисления этих параметров по известному закону распределения – через усреднение значений самой СВ или усреднение квадратов ее значений.
Конечно, можно усреднять и кубы значений, и их четвертые степени и т.д., но что мы при этом получим? Поищем в теории ответ и на эти вопросы.
Начальными моментами k-го порядка случайной величины X обычно называют суммы:
n k = S (X i)k · P(X i); n 0 = 0; {2–7}
а центральными моментами – суммы:
m k= S (X i –n 1)k · P(X i), {2–8} при вычислении которых усредняются отклонения от центра распределения – математического ожидания.
Таким образом,
· m 1 = 0;
· n 1 = M(X) является параметром центра распределения;
· m 2 = D(X) является параметром рассеяния; {2-9}
· n 3 и m 3 – описывают асимметрию распределения;.
· n 4 и m 4 – описывают т.н. эксцесс (выброс) распределения и т.д.
Иногда используют еще один показатель степени разброса СВ – коэффициент вариации V= s / M(X), имеющий смысл при ненулевом значении математического ожидания.
Распределения непрерывных случайных величинДо этого момента мы ограничивались только одной “разновидностью” СВ – дискретными, т.е. принимающими конечные, заранее оговоренные значения на любой из шкал Nom, Ord, Int или Rel .
Но теория и практика статистики требуют использовать понятие непрерывной СВ – допускающей любые числовые значения на шкале типа Int или Rel . И дело здесь вовсе не в том, что физические величины теоретически могут принимать любые значения – в конце концов, мы всегда ограничены точностью приборов их измерения. Причина в другом…
Математическое ожидание, дисперсия и другие параметры любых СВ практически всегда вычисляются по формулам, вытекающим из закона распределения. Это всего лишь числа и далеко не всегда целые.
Так обстоит дело в теории. На практике же, мы имеем только одно – ряд наблюдений над случайной (будем далее полагать – всегда дискретной) величиной. По этим наблюдениям можно строить таблицы или гистограммы, используя значения соответствующих частот (вместо вероятностей). Такие распределения принято называть выборочными, а сам набор данных наблюдений – выборкой.
Пусть мы имеем такое выборочное распределение некоторой случайной величины X – т.е. для ряда ее значений (вполне возможно неполного, с “пропусками" некоторых допустимых) у нас есть рассчитанные нами же частоты f i .
В большинстве случаев нам неизвестен закон распределения СВ или о его природе у нас имеются догадки, предположения, гипотезы, но значения параметров и моментов (а это неслучайные величины!) нам неизвестны.
Разумеется, частоты fi суть непрерывные СВ и, кроме первой проблемы – оценки распределения X, мы имеем ещё одну – проблему оценки распределения частот.
Существование закона больших чисел, доказанность центральной предельной теоремы поможет нам мало:
· во-первых, надо иметь достаточно много наблюдений (чтобы частоты “совпали” с вероятностями), а это всегда дорого;
· во-вторых, чаще всего у нас нет никаких гарантий в том, что условия наблюдения остаются неизменными, т.е. мы наблюдаем за независимой случайной величиной.
Теория статистики дает ключ к решению подобных проблем, предлагает методы “работы” со случайными величинами. Большинство этих методов появилось на свет как раз благодаря теоретическим исследованиям распределений непрерывных величин.
Нормальное распределение
Первым, фундаментальным по значимости, является т.н. нормальный закон распределения непрерывной случайной величины X, для которой допустимым является любое действительное числовое значение. Доказано, что такой закон распределения имеет величина, значение которой обусловлено достаточно большим количеством факторов (причин).
Для вычисления вероятности того, что X лежит в заранее заданном диапазоне, получено выражение, которое называют интегралом вероятности:
P(a £ X £ b) =
Обратим внимание на то, что в это выражение входят две константы (параметра) m и s . Как и для любой (не обязательно дискретной) СВ, здесь также имеют смысл понятия моментов распределения и оказывается, что
M(X) = m , а D(x) = s 2 . {2–10}
Для непрерывно распределенных величин не существует понятия вероятности конкретного значения. Вопрос – “какова вероятность достижения температурой воздуха значения 14 градусов?” – некорректен. Все зависит от прибора измерения, его чувствительности, ошибок измерения. Но вместе с тем функция под интегралом вероятности существует, она однозначно определена:
j (X) = ,
ее график (аналог гистограммы) имеет вид:
а площадь под кривой на заданном интервале X определяет вероятность попадания в этот интервал.
Чаще всего закон нормального распределения используется для нормированной случайной величины
Z = (X – m ) /s , {2–11} у которой M(Z)=0; D(Z)=1. {2–12}
Отметим ряд других особенностей этого распределения, полагая его нормированным.
· Доказано, что целый ряд “классических” распределений (как дискретных, так и непрерывных) стремятся к нормальному при непрерывном изменении их внутренних параметров.
· Симметрия нормального распределения позволяет достаточно просто оценивать вероятность “попадания” случайной нормированной величины в заданный диапазон. Очень часто в прикладной статистике приходится использовать понятие “маловероятного” значения. Для нормированной величины с нормальным распределением вероятность попадания в диапазон ± 3s составляет 0.9973 (правило “трех сигм”).
· Особую роль играет нормальное распределение при решении вопросов о “представительности” наблюдений. Оказывается, что работа с выборочными распределениями в большинстве случаев позволяет решить проблему оценки наших предварительных выводов, предположений, гипотез – с использованием разработанных и теоретически обоснованных приемов на базе нормального закона.
Распределения выборочных значений параметров нормального распределения
Пусть у нас имеется некоторая непрерывная случайная величина X , распределенная нормально с математическим ожиданием m и среднеквадратичным отклонением s . Если мы имеем n наблюдений над такой величиной (имеем выборку объемом n из генеральной совокупности) , то выборочные значения Mx и Sx являются также случайными величинами и нам крайне важно знать их законы распределения. Это необходимо как для оценки доверия к этим показателям, так и для проверки принадлежности исходного распределения к нормальному. Существует ряд теоретически обоснованных выводов по этой проблеме:
· величина имеет нормированное нормальное распределение, что позволяет оценивать Mx при заранее известной дисперсии;
· величина имеет так называемое распределение Стьюдента, для которого также имеется выражение плотности вероятности и построены таблицы;
· величина имеет распределение "хи–квадрат", также с аналитической функцией плотности и рассчитанными по ней таблицами.
Отметим, что распределения Стьюдента и "хи–квадрат" имеют свой внутренний параметр, который принято называть числом степеней свободы. Этот параметр полностью определяется объемом выборки (численностью наблюдений) и выбирается обычно равным m =(n – 1).
Взаимосвязи случайных величин Парная корреляция
Прямое толкование термина "корреляция" — стохастическая, вероятная, возможная связь между двумя (парная) или несколькими (множественная) случайными величинами.
Выше говорилось о том, что если для двух случайных величин X и Y имеет место равенство P(X Ç Y) = P(X)· P(Y), то эти величины считаются независимыми. Ну, а если это не так!?
Ведь всегда важно знать: насколько зависит одна СВ от другой? Дело не только в присущем людям стремлении анализировать что-либо обязательно в числовом измерении. Уже понятно, что прикладная статистика требует непрерывных вычислений, что использование компьютера вынуждает нас работать с числами, а не с понятиями.
Для числовой оценки взаимосвязи между двумя СВ: Y – с известными M(Y) и s y
и X – с M(X) и s x принято использовать так называемый коэффициент корреляции
. {3–1}
Обратим внимание на способ вычисления коэффициента корреляции. В числителе находится математическое ожидание произведения отклонений величин X и Y от собственных математических ожиданий.
Этот коэффициент может принимать значения от –1 до +1 — в зависимости от тесноты и характера связи между данными СВ.
Если коэффициент корреляции равен нулю, то X и Y называют некоррелированными. Считать их независимыми обычно нет оснований — оказывается, что существуют такие, как правило — нелинейные связи величин, при которых коэффициент корреляции равен нулю, хотя величины зависят друг от друга.
Обратное всегда верно — если величины независимы, то R(XY) = 0. Но, если модуль R(XY) равен 1, то есть все основания предполагать наличие линейной связи между Y и X. Именно поэтому часто говорят о линейной корреляции при использовании такого способа оценки связи между СВ.
Если у нас имеется ряд наблюдений за двумя случайными величинами, то можно оценить выборочное значение коэффициента корреляции –
{3–2}
Оценку корреляционной связи двух СВ можно производить и без учета их дисперсий.
Числитель коэффициента корреляции
. {3–3}
называют ковариацией случайных величин, которая также служит мерой связи, но без непосредственного учета дисперсий.
Различие между такими двумя показателями парной связи СВ достаточно существенное.
· Коэффициент корреляции определяет степень, тесноту линейной связи между величинами и является безразмерной величиной.
· Ковариация двух СВ определяет эту связь безотносительно к ее виду и является величиной размерной.
Множественная корреляцияВ ряде случаев статистического анализа приходится решать вопрос о связях нескольких (более 2) СВ или вопрос о множественной корреляции.
Пусть X, Y и Z – случайные величины, имеющие математические ожидания M(X), M(Y), M(Z) и среднеквадратичные отклонения s x ,s y, s z соответственно. Тогда можно найти парные коэффициенты корреляции Rxy, Rxz, Ryz по приведенной выше формуле.
Но этого явно недостаточно – ведь мы на каждом из трех этапов попросту забывали о наличии третьей СВ! Поэтому в случаях множественного корреляционного анализа иногда требуется отыскивать т. н. частные коэффициенты корреляции — например, оценка виляния Z на связь между X и Y производится с помощью коэффициента
И, наконец, можно поставить вопрос — а какова связь между данной СВ и совокупностью остальных? Ответ на такие вопросы дают коэффициенты множественной корреляции RX.YZ, RY.XZ, RZ.XY, формулы для вычисления которых построены по тем же принципам — учету связи одной из величин со всеми остальными в совокупности.
Проверка статистических гипотез Понятие статистической гипотезы
Как уже отмечалось, основным занятием статистика–прикладника является чаще всего решение вопроса о том, что и как можно извлечь из наблюдений над случайной величиной (выборочных её значений) для последующего использования в практике.
Скажем, для некоторой экономической задачи требуется знание длины очереди автомашин, ожидающих технического обслуживания, а эта величина хоть и выражается целым числом, но является случайной.
Очень редко задачи такого рода имеют “теоретическую платформу” – хотя бы в части закона распределения СВ, не говоря уже о внутренних параметрах этого распределения или его моментах. Чаще всего в нашем распоряжении нет практически ничего, кроме некоторого количества наблюдений за значениями СВ и … необходимости решать задачу.
Выражаясь чисто научным языком, современный подход к статистическим задачам в последние два десятилетия заключается в использовании непараметрической статистики, а не традиционных, классических методов, которые применимы только при заранее известных законах распределений.
Но и в первом, и во втором случаях одной из важнейших задач профессионального статистика является проверка выдвинутых им же предположений или гипотез.
Чем же отличаются статистические гипотезы от обычных, житейских предположений? Прежде всего, тем, что статистических гипотез всегда две и они взаимоисключающие. Одна из них (обычно та, которую предполагают отклонить) носит название нулевой гипотезы Њ0, вторая – альтернативная гипотеза Њ1 всегда отрицает нулевую, противостоит ей.
Вся “хитрость” заключается именно в нулевой гипотезе – её надо построить, сформулировать так, чтобы иметь возможность найти интересующие нас вероятности в условиях истинности этой гипотезы.
Пусть мы исследуем игральную кость – “проверяем” ее симметричность. Ясно, что в качестве нулевой гипотезой надо считать предположение о полной симметрии кости.
Ведь если Њ0 верна, то вероятности выпадения всех шести цифр на гранях будут одинаковы – по 1/6 . А вот выдвижение в качестве нулевой гипотезы предположения об асимметрии кости ничего бы не дало – в этом случае мы ничего не можем сказать о значениях вероятностях выпадения цифр.
С процедурами проверки статистических гипотез неразрывно связано еще одно, непривычное для обычных расчетных работ, понятие уровня значимости результатов наблюдений.
В самом начале курса уже упоминался метод выделения редких событий – вероятность которых не превышает 5 %. Конечно, это значение является чисто условным – в некоторых случаях редкими считают события с вероятностью не более 1 %.
Теория вероятностей позволяет обосновать деление случайных событий на три класса – обычные, редкие и исключительные. При этом наблюдение события исключительного дает основания считать, что причины его наступления являются уже неслучайными – имеет место влияние некоторого фактора.
Будем далее использовать 5 % уровень значимости, как это принято почти во всех прикладных направлениях статистики, в том числе и в экономике.
Итак, если наблюдения относятся к событиям редким (с вероятностью до 5 %), то такие наблюдения и результаты их обработки будем называть статистически значимыми. Как же так, спросите вы, – вероятность мала, а предлагается считаться с ней. Все очень просто – если мы вычислили вероятность некоторого результата наблюдения в условиях основной гипотезы и она (априорная вероятность) оказалась очень малой, то чем она меньше, тем больше у нас оснований отвергнуть Њ0. С другой стороны, если мы увидели очень редкое событие – выпадение 10 гербов при 15 подбрасываниях монетки, то значимость такого наблюдения чрезвычайно высока – гипотезу о симметрии вполне можно отбросить.
Критерии статистических гипотез
Если мы пытаемся решить некоторую статистическую задачу, то в большинстве случаев нам придется заниматься не столько математическими выкладками и числовыми расчетами, сколько принимать решение – какую из выдвинутых нами же статистических гипотез принять (или – какую из них отвергнуть).
Так вот, решающее правило, согласно которому мы будем действовать, принято называть статистическим критерием. К сожалению, не существует единого, универсального критерия значимости – их приходится разрабатывать в теории и использовать на практике применительно к особенностям конкретных задач.
Вместе с тем, любому критерию значимости присуще одно и то же свойство – во всех случаях мы не получим категоричного указания на “истинную” гипотезу, прямого ответа на вопрос – какую из гипотез нам принять.
Еще более непривычным для человека с навыками искать и находить ответы в расчетных задачах, будет сама форма ответа на вопрос о сравнении гипотез Њ0 и Њ1 – например, в таком виде "если отбросить нулевую гипотезу, то вероятность ошибки такого действия не превосходит 3 % ".
Дальше уже наше дело, принять или отвергнуть ту или иную гипотезу – теория большего дать не в состоянии. Надо понять различие между выделенным утверждением и вроде бы аналогичным – "вероятность верности гипотезы Њ1 составляет 97%" . Все между тем очень просто – вычислить возможно только вероятность ошибочности Њ0 и не более того!
Пусть мы интересуемся симметрией обычной монетки и собираемся проводить эксперименты – подбрасывать её и фиксировать результаты. Выдвинем гипотезу – монета симметрична. Если мы собираемся произвести N подбрасываний и по их итогам проверить гипотезу, должны просчитать вероятности выпадения 0, 1, 2 и т.д. до N “гербов”. Конечно, можно выполнить расчеты и после окончания опыта – всё равно это будут априорные вероятности по своей сути.
Проиллюстрируем это на рассмотренной ранее ситуации 8 экспериментов с монеткой. Предположим, что частости появления возможных исходов уже вычислены – в таких случаях говорят о наличии выборочного распределения вероятностей. Для нашего эксперимента такое распределение имеет вид:
Таблица 4–1
Число наблюдений гербов k |
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
Вероятность P(X =k) в 1 / 256 |
1 |
8 |
28 |
56 |
70 |
56 |
28 |
8 |
1 |
Вероятность P(X £ k) в 1 / 256 |
1 |
9 |
37 |
93 |
163 |
219 |
247 |
255 |
256 |
Если мы в результате эксперимента получили сумму гербов S = 1, то вероятность наблюдать такую сумму (и менее вероятное значение S=0) составляет для симметричной монетки P(S <2) = (1+8) / 256 @ 0.036. Можно, однако, рассуждать и иначе. Ведь мы наблюдали в том же опыте 7 появлений “решки”. Вероятность наблюдать такое и менее вероятное число 8 составляет точно столько же – P(S>6) = (1+8) / 256 @ 0.036. Осталось построить решающее правило – критерий для принятия окончательного решения в отношении выдвинутых гипотез (основной Њ0 и альтернативной Њ1).
Заметим, что при выдвинутой нами основной гипотезе Њ0:(p=q) альтернативную гипотезу можно выдвигать по разному:
Њ1: (p#q) – монета несимметрична, ненаправленная гипотеза, требующая использования двухсторонних вероятностей;
Њ1: (p<q) – монета несимметрична и при этом “герб” легче, направленная гипотеза, достаточно односторонних вероятностей.
Применим оба приема построения критерия в условиях нашего примера.
· Нулевая гипотеза Њ0: (p=q). Альтернативная гипотеза Њ1: (p#q).
Уровень значимости a =0.05. Итог наблюдений при N=8: S= 1 .
Вероятность такого итога при условии, что нулевая гипотеза верна составляет
P(S<2)+ P(S>6) @ 0.072, т.е. больше порогового значения
Решение: нулевую гипотезу не отвергаем, монетку считаем симметричной.
· Нулевая гипотеза Њ0: (p=q). Альтернативная гипотеза Њ1: (p<q).
Уровень значимости a =0.05. Итог наблюдений при N=8: S= 1 .
Вероятность такого итога при условии, что нулевая гипотеза верна составляет P(S<2) @ 0.036, т.е. меньше уровня значимости.
Решение: нулевую гипотезу отвергаем, монетку считаем направленно несимметричной.
Возможно у вас возникло сомнение в части первого способа оценки статистических гипотез – ведь герб наблюдался всего один раз из восьми и, тем не менее, гипотеза о симметрии монетки не отбрасывается.
На самом деле всё правильно и обосновано – смысл нулевых гипотез Њ0 в первом и втором случае, несмотря на формальную тождественность, не одинакова. Суть дела заключена в формулировке альтернативных гипотез Њ1.
В первом случае Њ1 охватывает два события (p>q) или (p<q), а значит это более жесткое предположение. Во втором случае Њ1 связана только с одним событием (p<q), а значит она мягче, требует меньшего количества информации для признания ее истинной.
Ошибки при проверке статистических гипотезВыбирая окончательно в качестве рабочей одну из гипотез – нулевую или альтернативную, мы используем следующую логическую схему (алгоритм):
Не забудем, что отвергая Њ0, мы принимаем альтернативную Њ1 и наоборот. Пусть у нас уже есть правило, в соответствии с которым мы либо принимаем основную гипотезу Њ0, либо отвергаем её.
Как уже говорилось, контрольной цифрой является уровень значимости – вероятность a наблюдать то, что мы имеем после эксперимента, в случае если гипотеза Њ0 верна.
Пусть, к примеру, мы знаем вероятность данного наблюдения при истинности основной гипотезы и она равна 0.04. Мы вправе принять эту гипотезу – вероятность ошибиться меньше, чем a =0.05.
Конечно, приняв нулевую гипотезу, мы рискуем ошибиться. Степень риска можно найти очень просто – вероятность отбросить верную нулевую гипотезу (совершить ошибку первого рода или a –ошибку) составляет 5 %.
Но ведь можно совершить и другую ошибку – принять нулевую гипотезу, когда она на самом деле неверна (ошибка второго рода или b –ошибка). Величина эта зависит, прежде всего, от решающего правила – критерия принятия гипотез. Поэтому величину (1 –b ) принято называть мощностью критерия.
С определением вероятности ошибки второго рода дело обстоит не так просто – ее приходится вычислять. В первом приближении можно считать, что нам одинаково “вредны” ошибки как первого, так и второго рода. Более актуальным является вопрос – а как их избежать или хотя бы снизить вероятность их появления? К сожалению, в задачи курса не входит рассмотрение таких вопросов.
Достаточно знать, что в прикладной статистике существуют методы повышения эффективности критериев проверки статистических гипотез.
Кроме того, нельзя упускать из виду и "простой рецепт" снижения вероятностей ошибок как первого, так и второго рода – надо иметь побольше наблюдений.
Так, например, имеются достаточно надежные методы определения так называемых “критических” значений СВ. Эти значения для задач рассмотренных выше типов (с биномиальным распределением вероятностей) позволяют сразу же оценить возможность отбрасывания нулевой гипотезы – по данным о числе испытаний и числе наблюдений данного события.
Если число испытаний монетки на симметрию составляет N=12 и выдвинуты гипотезы Њ0: (p=q); Њ1: (p#q), то критическими значениями наблюдений при граничной вероятности a =0.05 являются S=2 и S=10. Это означает, что при наблюдаемом числе гербов £ 2 или ³ 10 нулевая гипотеза может быть отвергнута.
Обратим также внимание на явную зависимость наших решений от числа наблюдений – нам не удалось отвергнуть гипотезу о симметрии монетки при всего одном гербе (из восьми бросаний), но вполне обосновано удается сделать это при 0, 1 и даже 2 – при увеличении числа наблюдении или, на языке статистики, увеличении объема выборки.
Выборочные распределения на шкалах Int и Rel Оценка наблюдений при неизвестном законе распределенияКакова цель наблюдений над случайной величиной; для чего используются результаты наблюдений; где, как и для чего применить возможности теории вероятностей и прикладной статистики? Ответы на эти, простые с виду, вопросы зависят от многих факторов, обстоятельств и не всегда оказываются конкретными.
Попытаемся всё же сформулировать ответ применительно к конкретной обстановке – при статистических расчетах в экономических системах.
В таких системах основные числовые показатели “жизни” системы в целом и отдельных её элементов можно свести к трем разновидностям:
· продукция, с конкретными ее показателями (вес, объем, количество и т.д.), – величинами на шкале Int или Rel;
· деньги, с единицей измерения по шкале Int или Rel (отрицательные величины обычно означают убытки или долги);
· информация, с несколькими шкалами измерений – в битах (байтах) для количественного описания по шкале Int или в виде сообщений о событиях на шкалах Nom или Ord.
Простые размышления приводят к мысли о возможности допустить, что все эти величины являются, во-первых, случайными и, во-вторых, дискретными. Ясно также, что без учета всех этих величин эффективной экономики быть не может – только знание всех этих показателей позволит управлять экономикой.
Конечно, у многих из вас уже готово решение проблемы – раз уж мы не знаем точно значение величины (скажем – суммы прибыли), так воспользуемся её математическим ожиданием! Это верная мысль…
Но для вычисления математического ожидания надо знать закон распределения вероятностей, т.е. иметь информацию
· обо всех допустимых (возможных) значениях прибыли;
· о соответствующих им значениях вероятностей.
Рассмотрим простейший пример. Пусть у нас есть всего четыре наблюдения над суммой G дневной выручки в 196, 208, 210 и 214 гривен. Легко подсчитать среднее значение – оно составит 207 гривен. Какое доверие к этой цифре? Ведь мы совершенно ничего не знаем о законе распределения СВ, кроме того, что эта величина дискретная и имеет относительную шкалу. Тем не менее, кое–что полезное из таких скудных наблюдений (малой выборки) можно извлечь.
Поступим следующим образом – вместо случайной величины G будем рассматривать другую величину U= (G–M(G)). Математическое ожидание новой СВ будет всегда равно нулю – какие бы гипотезы о значении M(G) мы ни выдвигали,
Теперь подумаем о том, как сформулировать нулевую гипотезу. Вроде бы это надо делать так:
Теперь результаты наблюдений над выручкой G можно представить в виде четырех наблюдений над U: –11,+1,+3,+7. Теория математической статистики предлагает следующий, т.н. биномиальный критерий проверки гипотез в подобных ситуациях.
Предполагается, что распределение вероятностей наблюдаемой величины U симметрично относительно значения математического ожидания, т.е. относительно нуля.
Далее предлагается рассматривать N имеющихся у нас значений U как совокупность случайных величин, принимающих с вероятностью 0.5 значения по итогам наблюдения или противоположные им по знаку. В нашем примере это приводит к
P(U1=11)=P(U1= –11)= 1/ 2; P(U2=1)=P(U2= –1)= 1/ 2;
P(U3=3)=P(U3= –3)= 1/ 2; P(U4=7)=P(U4= –7)= 1/ 2;
Теперь рассматривается сумма этих случайных величин S – она может принимать 2N различных значений, с одинаковой вероятностью 1/2N.
Таблица 5-1
U1 |
11 |
11 |
11 |
11 |
11 |
11 |
11 |
11 |
-11 |
-11 |
-11 |
-11 |
-11 |
-11 |
-11 |
-11 |
U2 |
1 |
1 |
1 |
1 |
-1 |
-1 |
-1 |
-1 |
1 |
1 |
1 |
1 |
-1 |
-1 |
-1 |
-1 |
U3 |
3 |
3 |
-3 |
-3 |
3 |
3 |
-3 |
-3 |
3 |
3 |
-3 |
-3 |
3 |
3 |
-3 |
-3 |
U4 |
-7 |
7 |
7 |
-7 |
7 |
-7 |
7 |
-7 |
7 |
-7 |
7 |
-7 |
7 |
-7 |
7 |
-7 |
S |
Отклонения от гипотетического математического ожидания в сумме составляют в нашем примере точно 0 и нам необходимо определить количество вариантов, в которых сумма S>0. Всего вариантов 16, а вариантов с нулевой или положительной суммой 9. Вероятность ошибки при отклонении Њ0 оказалась равной 9/16@ 0.57, что намного больше контрольных 5 % . Как и следовало ожидать, нам нет смысла отбрасывать нулевую гипотезу – слишком велика ошибка первого рода.
Все было бы хорошо, но если мы выдвинем другую нулевую гипотезу о математическом ожидании выручки, например – Њ0: M(G)= 196 гривен, то после аналогичных расчетов получим результат – и эту гипотезу нет оснований отбрасывать, правда вероятность ошибки первого рода теперь будет иной – “всего лишь” 0.125. Столько же составит вероятность этой ошибки и при Њ0: M(G)= 214. Таким образом, все нулевые гипотезы со значениями от 196 до 214 можно не отвергать (не достигнуто пороговое значение 0.05). Можно ли рекомендовать принятие альтернативной гипотезы и, если – да, то при каком значении гипотетического математического ожидания?
Теория прикладной статистики отвечает на этот вопрос однозначно – нет, рекомендовать нам это она не вправе!
Вспомним “неудобное” свойство статистических выводов или рекомендаций – они никогда не бывают однозначными, конкретными. Поэтому наивно ожидать решения задачи об оценке математического ожидания по данным наблюдений в виде одного, конкретного числа.
Еще раз продумаем, чего мы добиваемся, меняя значение в нулевой гипотезе? Ведь самая большая ошибка первого рода была как раз тогда, когда мы выдвинули такое понятное предположение – математическое ожидание равно среднему.
Более того, проверка нулевой гипотезы такого вида была совершенно бессмысленным делом. Практически всегда в этих случаях альтернативная гипотеза окажется самой вероятной, но практически никогда вероятность ее истинности не достигнет желанных 95 %.
Всё дело в том, что просчитать последствия своего решения мы умеем только отвергая нулевую гипотезу, но, принимая ее, последствия просчитать не можем.
Вот если бы, передвигая воображаемый указатель по шкале СВ мы получили сигнал “СТОП, достаточно! Достигнут уровень ошибки 5 %”, то мы бы запомнили данное значение как левую (или правую) границу интервала, в котором почти “наверняка” лежит искомое нами математическое ожидание. В нашем примере этого не произошло и, оказывается и не могло произойти.
Дело в том, что у нас всего 4 наблюдения (196,208,210,214) со средним значением 207 и среднеквадратичным отклонением около 13.5 гривен (т.е. более 6 % от среднего). И получить значимые статистические выводы в этом случае просто невозможно – надо увеличить объем выборки, число наблюдений.
А вот на вопрос – а сколько же надо наблюдений, каково их достаточное число, прикладная статистика имеет ответ: для “преодоления 5 % барьера” достаточно 5 наблюдений.
Попробуем решить другую задачу об оценке математического ожидания СВ на интервальной шкале, но будем решать её не “по чувству”, а “по разуму”.
· Наблюдения над случайной величиной X: 19,17,15,13,12,11,10,8,7.
· Количество наблюдений: 9, возможных исходов 512.
· Њ0: M(X)= 9, Њ1: M(X)# 9.
Найдем сумму отклонений от гипотетического среднего, S = 31.
Из 512 возможных вариантов суммы отклонений выберем только те, в которых эта сумма составляет 31 и более. Таких вариантов всего 11, значит при принятии нулевой гипотезы Њ0: M(X)= 9 вероятность наблюдать такие суммы P(S ³ 31) составляет 11/512 @ 0.02 , что меньше порогового значения в 5 % .
Вывод: гипотезу Њ0 следует отвергнуть и считать приемлемым по надежности неравенство M(X) # 9.
До сих пор мы выдвигали гипотезу о значении математического ожидания на “левом крае” распределения наблюдений и могли бы повторять проверки, задаваясь значениями M(X) в 10, 11 и т.д., до тех пор, пока вероятность ошибки первого рода не достигла бы порогового значения.
Можно также исследовать правый край распределения – проверять гипотезы при больших значениях математического ожидания.
Например:
· Наблюдения над случайной величиной X: 19,17,15,13,12,11,10,8,7.
· Количество наблюдений: 9, возможных исходов 512.
· Њ0: M(X)= 17, Њ1: M(X)# 17.
Теперь сумма отклонений от гипотетического среднего окажется S = – 41.
Из 512 возможных вариантов суммы отклонений выберем только те, в которых эта сумма составляет –41 и менее. Таких вариантов всего 3, значит при принятии нулевой гипотезы Њ0: M(X)= 17 вероятность наблюдать такие суммы составляет P(S £ – 31) = 3/512 @ 0.006 , что намного меньше порогового значения в 5 % . Следовательно, можно попробовать гипотезы с меньшим M(X), сужая диапазон или так называемый доверительный интервал для неизвестного нам математического ожидания.
Оценка наблюдений при известном законе распределенияНе всегда закон распределения СВ представляет для нас полную тайну. В ряде случаев у нас могут быть основания предполагать, что случайные события, определяющие наблюдаемые нами значения этой величины, подчиняются определенной вероятностной схеме.
В таких случаях использование методов выдвижения и проверки гипотез даст нам информацию о параметрах распределения, что может оказаться вполне достаточно для решения конкретной экономической задачи.
Оценка параметров нормального распределения
Нередки случаи, когда у нас есть некоторые основания считать интересующую нас СВ распределенной по нормальному закону. Существуют специальные методы проверки такой гипотезы по данным наблюдений, но мы ограничимся напоминанием природы этого распределения – наличия влияния на значение данной величины достаточно большого количества случайных факторов.
Напомним себе также, что у нормального распределения всего два параметра – математическое ожидание m и среднеквадратичное отклонение s .
Пусть мы произвели 40 наблюдений над такой случайной величиной X и эти наблюдения представили в виде:
Таблица 5-2
Xi |
85 |
105 |
125 |
145 |
165 |
185 |
205 |
225 |
Всего |
ni |
4 |
3 |
3 |
2 |
4 |
7 |
12 |
5 |
|
f i |
0.100 |
0.075 |
0.075 |
0.050 |
0.100 |
0.175 |
0.300 |
0.125 |
1 |
Если мы усредним значения наблюдений, то формула расчета выборочного среднего
Mx = S Xi · ni =S Xi · fi {5–1} будет отличаться от выражения для математического ожидания m только использованием частот вместо вероятностей.
В нашем примере выборочное среднее значение составит Mx = 171.5 , но из этого пока еще нельзя сделать заключение о равенстве m = 171.5.
· Во-первых, Mx – это непрерывная СВ, следовательно, вероятность ее точного равенства чему-нибудь вообще равна нулю.
· Во-вторых, нас настораживает отсутствие ряда значений X.
· В-третьих, частоты наблюдений стремятся к вероятностям при бесконечно большом числе наблюдений, а у нас их только 40. Не мало ли?
Если мы усредним теперь значения квадратов отклонений наблюдений от выборочного среднего, то формула расчета выборочной дисперсии
Dx = (Sx)2 = S (Xi – Mx)2 · ni =S (Xi)2 · fi – (Mx)2 {5–2} также не будет отличаться от формулы, определяющей дисперсию s 2 .
В нашем примере выборочное значение среднеквадратичного отклонения составит Sx= 45.5 , но это совсем не означает, что s =45.5.
И всё же – как оценить оба параметра распределения или хотя бы один из них по данным наблюдений, т.е. по уже найденным Mx и Sx?
Прикладная статистика дает следующие рекомендации:
· значение дисперсии s 2 считается неизвестным и решается первый вопрос – достаточно ли число наблюдений N для того, чтобы использовать вместо величины s ее выборочное значение Sx;
· если это так, то решается второй вопрос – как построить нулевую гипотезу о величине математического ожидания m и как ее проверить.
Предположим вначале, что значение s каким–то способом найдено. Тогда формулируется простая нулевая гипотеза Њ0: m =Mx и осуществляется её проверка с помощью следующего критерия. Вычисляется вспомогательная функция (Z–критерий)
, {5-3} значение и знак которой зависят от выбранного нами предполагаемого m .
Доказано, что значение Z является СВ с математическим ожиданием 0 , дисперсией 1 и имеет нормальное распределение.
Теперь важно правильно построить альтернативную гипотезу Њ1. Здесь чаще всего применяется два подхода.
Выбор одного из них зависит от того – большое или малое (по модулю) значение Z у нас получилось. Иными словами – как далеко от расчетного Mx мы выбрали гипотетическое m ..
· При малых отличиях между Mx и m разумно строить гипотезы в виде
Њ0: m = Mx;
Њ1: неизвестное нам значение m лежит в пределах
Mx – · Z 2k £ m £ Mx + · Z 2k {5–4}
Критическое (соответствующее уровню значимости в 5%) значение критерия составляет при этом = 1.96 (двухсторонний критерий). Если оказывается, что выборочное значение критерия ½ Z½ < 1.96, то гипотеза Њ0: m =Mx принимается, данные наблюдений не противоречат ей.
Если же это не так, то мы “в утешение” получаем информацию другого вида – где, на каком интервале находится искомое значение m .
· При больших отличиях (в большую или меньшую сторону) между m и Mx гипотезы строятся иначе Њ0: m = Mx; Њ1: неизвестное нам значение m лежит вне пределов, указанных в {5–4}.
Теперь критическое (соответствующее уровню значимости в 5%) значение критерия составляет Z 1k = 1.645 (односторонний критерий). Если оказывается, что выборочное значение критерия½ Z½ ³ 1.645, то гипотеза Њ0: m =Mx отвергается, данные наблюдений противоречат ей.
Если же это не так, то мы получаем информацию другого вида – где, на каком крае интервале находится искомое значение m . Разумеется, для других (не 5%) значений уровня значимости Z1k и Z 2k являются другими.
Чуть сложнее путь проверки гипотез о математическом ожидании m в случаях, когда s нам неизвестна и приходится довольствоваться выборочным значением среднеквадратичного отклонения по данным наблюдений.
В этом случае вместо “z –критерия” используется т.н. “t–критерий” или критерий Стьюдента
, {5–5} в котором используется значение “несмещенной” оценки для дисперсии s 2
(Sx)2 = S (Xi – Mx)2 · ni . {5–6}
Далее используется доказанное в теории положение – случайная величина t имеет специальное распределение Стьюдента с m=N–1 степенями свободы.
Существуют таблицы для этого распределения по которым можно найти вероятность ошибки первого рода или, что более удобно, – граничное значение этой величины при заданных заранее a и m. Таким образом, если вычисленное нами значение ½ t½ ³ t(a ,m), то Њ0 отвергается, если же это не так – Њ0 принимается. Конечно, при большом количестве наблюдений (N>100…120) различие между z– и t–критериями несущественно. Значения критерия Стьюдента для a =0.05 при разных количествах наблюдений составляют:
Таблица 5–3
m |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
20 |
30 |
40 |
120 |
t |
12.7 |
4.30 |
3.18 |
2.78 |
2.57 |
2.45 |
2.36 |
2.31 |
2.26 |
2.23 |
2.09 |
2.04 |
2.02 |
1.98 |
Оценка параметров дискретных распределений
В ряде случаев работы с некоторой дискретной СВ нам удается построить вероятностную схему событий, приводящих к изменению значений данной величины. Иными словами – закон распределения нам известен, но неизвестны его параметры. И наша задача – научиться оценивать эти параметры по данным наблюдений.
Начнем с наиболее простого случая. Пусть у нас есть основания считать, что случайная величина X может принимать целочисленные значения на интервале [0…k…n] с вероятностями
P(X=k)=pk(1– p)n-k,
т.е. распределена по биномиальному закону. Так вот, – единственный параметр p этого распределения нас как раз и интересует.
Примером подобной задачи является чисто практический вопрос о контроле качества товара.
Пусть мы решили оценить качество одной игральной кости из партии, закупленной для казино. Проведя n=200 бросаний мы обнаружили появлений цифры 6 в X = 25 случаях.
Выдвинем нулевую гипотезу Њ0: кость симметрична, то есть p= 1/6.
Вроде бы по наблюдениям частота выпадения цифры 6, составившая 25/200 не совпадает с гипотетическим значением вероятности 1/6. Но это чисто умозрительное, дилетантское заключение.
Теория прикладной статистики рекомендует вычислить значение непрерывной СВ
, {5–7} т.е. использовать z–критерий (см. {5–3}).
В нашем примере наблюдаемое значение Z составит около –1.58. Следовательно, при пороговой вероятности в 5% условие ½ Z½ < 1.96 выполняется и у нас нет оснований отбрасывать нулевую гипотезу о симметрии игральной кости.
Отметим, что z–критерий позволяет решать еще одну важную задачу – о достаточном числе испытаний.
Пусть нам требуется проверить качество товара – некоторых изделий, каждое из которых может быть годным или негодным (бракованным). Пусть допустимый процент брака составляет p=5%. Ясно, что чем больше испытаний мы проведем, тем надежнее будет наш статистический вывод – браковать партию товара (например, – 10000 штук) или считать её пригодной.
Если мы провели n=500 проверок и обнаружили X=30 бракованных изделий, то выдвинув г позволяет решать еще одну важную задачу – о достаточном числе испытаний.
Пусть нам требуется проверить качество товара – некоторых изделий, каждое из которых может быть годным или негодным (бракованным). Пусть допустимый процент брака составляет p=5%. Ясно, что чем больше испытаний мы проведем, тем надежнее будет наш статистический вывод – браковать партию товара (например, – 10000 штук) или считать её пригодной.
Если мы провели n=500 проверок и обнаружили X=30 бракованных изделий, то выдвинув гипотезу Њ0: p=5% , мы найдем выборочное значение критерия по {5–7}. Оно составит около 1.03, что меньше “контрольного” 1.96 . Значит, у нас нет оснований браковать всю партию.
Но возникает вопрос – сколько проверок достаточно для принятия решения с уровнем значимости в 5%? Для этого достаточно учесть допустимый процент брака (т.е. задать p), указать допустимое расхождение между ним и наблюдаемым процентом брака в выборке (d= p–X/n) и воспользоваться выражением
{5–8}
Если мы примем d=± 0.02, то получим ответ – вполне достаточно 456 проверок, чтобы убедиться в том, что реальный процент брака отличается от допустимого не более чем на 2%.
Выборочные распределения на шкале NomНапомним, что случайная величина X, принимающая одно из n допустимых значений A, B, C и т.д. имеет номинальную шкалу тогда, когда для любой пары этих значений применимы только понятия “равно” или “неравно”.
Для подобных СВ не существует понятий математического ожидания, как и других моментов распределения. Но понятие закона распределения имеет смысл – это ряд вероятностей PA = P(X=A) для каждого из допустимых значений. Соответственно, итоги наблюдения над такой СВ дадут нам частоты fA. Если у нас имеется всего N наблюдений за такой величиной, то иногда имеется возможность выдвинуть и проверить гипотезы о природе такой случайной величины, ее законе распределения и параметрах этого закона. Ситуации, когда это возможно сделать, не так уж и редки – всё зависит от понимания нами природы, сути случайных событий, от многозначности случайной величины и, конечно же, от количества наблюдений.
Случай двухзначной случайной величины, N<50Пусть нам крайне важно оценить "симметричность" некоторой случайной величины на номинальной двухпозиционной шкале со значениями "+" и "–" по наблюдениям за этой величиной. Если таких наблюдений было N+ =15 и N– = 25 соответственно, то это вся информация, которая у нас есть. Что же можно узнать из нее? Оказывается – достаточно много и иногда … даже надёжно!
В конце концов, мы можем полагать вероятность значения "+" на данной номинальной шкале равной p и тогда q = (1 – p) даст нам вероятность положения "–" на этой же шкале. Таким образом, мы уже построили закон распределения и дело остается за оценкой его единственного параметра p.
По сути дела у нас есть одна дискретная случайная величина – число появлений X на "первой" позиции своей номинальной шкалы и это число составляет S = N+ .
Но совершенно ясно, что новая случайная величина S имеет биномиальный закон распределения и вероятность наблюдения N+ =15 вполне можно вычислить, если знать или задаться значением p.
Основы психологии | |
Вопрос 1. Современная психология и её место в системе наук В силу своей специфики психология занимает особое место в системе современных наук ... 1. самонаблюдение; 2.объективн наблюден (д.б. цель наблюдения, с соответств с кот д.б. план наблюдения, наблюдение долж носить избират х-р. Наблюден стан-ся методом науч познания ... Недостатками наблюдения являются трудности охвата большого количества явлений, вероятность ошибок в интерпретации событий исследователем. |
Раздел: Рефераты по психологии Тип: шпаргалка |
Теория организации и системный анализ | |
ЧУЗ-ИДА Кривой Рог PEI-IBM Частное Учебное Заведение Институт Делового Администрирования Private Educational Institution Institute of Business ... К понятию вероятности значения дискретной СВ можно подойти и иным путем - через случайные события. Отсюда простое правило: для случайного события X вероятности P(X) (событие происходит) и P(X) (событие не происходит), в сумме для простого события дают 1. |
Раздел: Рефераты по теории организации Тип: реферат |
Теоретические основы математических и инструментальных методов ... | |
Теоретические основы специальности. Оптимизационные методы решения экономических задач. Классическая постановка задачи оптимизации. Оптимизация ... Поскольку эмпирическая функция распределения является оценкой для F(x) (можно доказать, что при вероятность того, что максимальное расхождение между и F(x) не превзойдет заданного ... Если, например, в результате наблюдений регистрируются значения n случайных величин X1,..., Xn и если требуется по этим данным проверить гипотезу Н, согласно которой совместное ... |
Раздел: Рефераты по экономико-математическому моделированию Тип: реферат |
Госэкзамены ответы | |
ВОПРОСЫ К ГОСУДАРСТВЕННОМУ ЭКЗАМЕНУ ПО ПСИХОЛОГИИ 2002/2003 учебный год Содержание и соотношение понятий "человек", "индивид", "личность ... Первая фаза - выделение проблемного комплекса (характеристики известного - S, место искомого - P, отношения между S и P, или средство - m). Незавершенность комплекса как суть ... Осн. св-во игры: она имеет дело я с явлениями, относящимися к уровню реальности в том смысле, что они доступны наблюдению посторонних лиц, но значительно меньше связана законами ... |
Раздел: Рефераты по психологии Тип: реферат |
Теория вероятностей | |
Вопрос 1 События и явления. Все события и явления реального мира разделяются на закономерные (детерминированные) и случайные (вероятностные ... Начальные моменты n-го порядка случайной величины X (или просто моменты) представляют собой усредненные значения n-й степени случайной переменной: mn М{Xn} = xn p(x) dx, где M{Xn ... Генеральной совокупностью называется вероятностное пространство {омега,S,P} (т.е. пространство элементарных событий омега с заданным на нем полем событий S и вероятностями Р) и ... |
Раздел: Рефераты по математике Тип: реферат |