Практические соображения при оценке экспертных вероятностей
Использование экспертных суждений и выборочной информации
Часто бывает важно использовать совместно экспертные оценки и имеющиеся данные. Теорема Байеса дает соотношение, позволяющее уточнить вероятностные оценки с учетом полученной дополнительной информации. Заметим, что все вероятностные оценки задаются либо в виде функции распределения вероятностей событий р(Е) в дискретном случае, либо в виде плотности вероятности f(x) в непрерывном случае.
Для дискретного случая теорема Байеса имеет вид
p'(E)=p(E/S)= (2.14)
где S - информационная выборка (то есть, данные);
p(Е/S) - вероятность события Е при данном S;
p(S/E) - вероятность S при данном E;
функции р(Е) и р'(Е) означают соответственно априорную и апостериорную
вероятности для дискретного случая.
Аналогично для непрерывного случая теорема Байеса имеет вид
(2.15)
где - плотность вероятности для информационной выборки S при заданном х;
- апостериорная плотность вероятности при данном S;
f(x) - априорная плотность вероятности.
В следующем подразделе предлагаются методы упрощения формул (2.14) и (2.15).
Поскольку экспертные оценки вероятностей, сделанные одним человеком, не всегда являются логически согласованными (после его первой попытки), исследователь должен обнаружить внутренние несоответствия и указать на них данному эксперту. Замечено, что люди систематически используют эвристические соображения при оценке неизвестных величин. Первым шагом на пути создания процедур для устранения личных предубеждений является их изучение. И наконец, прежде чем полагаться на суждения экспертов, следует проверить их откровенность и правдивость. Указанные соображения привели к понятию функции вознаграждения (или правилам ранжирования), когда высказыванию каждого из экспертов приписывается некоторое количество очков.
Трудность использования экспертных оценок вероятностей связана с тем, что полученные результаты требуют достаточно громоздкой процедуры обработки и не могут быть использованы непосредственно. К счастью, некоторые результаты теории статистических решений сильно упрощают как сам процесс оценок, так и последующий анализ. Основная идея состоит в выборе р(Е) или f(х) из определенного класса функций, с которыми проще работать.
Для примера возьмем функцию f(х), хотя те же идеи применимы и для p(Е). Было бы очень хорошо, если бы функция f(х) принадлежала к классу распределений вероятностей, зависящих от небольшого числа параметров, которые обозначим через . Тогда можно записать f(х|) и для того, чтобы полностью определить функцию f, требуется оценить только величины . Например, если функция относится к классу нормальных распределений, то она полностью определяется средним значением и дисперсией. Обычно намного легче оценить эти два параметра, чем получить все распределение вероятностей; как описывалось в подразделе 2.7.4. Пусть класс функций достаточно полный в том смысле, что широкий диапазон суждений можно выразить при помощи некоторой функции из этого класса. Тогда, видимо, мы не сделаем большой ошибки, если сначала предположим, что неопределенность в суждениях можно описать некоторой функцией из того же класса.
Другим преимуществом при выборе функции из заданного класса является то, что такую функцию относительно просто изменить при помощи теоремы Байеса. Например, для некоторых классов функций и некоторых методов выборки апостериорная плотность вероятности f'(х) [формула (2.15)] может быть функцией из того же класса, что и априорная плотность вероятности f(x). В таком случае плотности вероятности могут быть записаны соответственно как f(х|) и f (х|). Далее, f' (х) можно найти путем простого пересчета и на основе дополнительных данных.