logo
kollokvium_po_fizike

Элементы теории вероятности

В окружающем нас мире часто приходится сталкиваться с яв­лениями и фактами, которые при различных условиях могут происходить, а могут не происходить. Такие явления и факты называ­ются случайными событиями. Понятие случайного события свя­зано с единичными явлениями или их небольшим числом. При рассмотрении большого- числа явлений обнару­живаются опреде­ленные закономерности (рождаемость 515 мальчиков из 1000, вы­падение 6 на игральной кости, вес и рост детей и т.д.).

Изучение закономерностей однородных массовых случайных явлений и составляет предмет теории вероятности и основан­ной на ней математической статистики.

Методы теории вероятности и математической статистики на­шли широкое применение при обработке данных экспериментов в различных областях науки и техники, в том числе и меди­цине. Например, при оценке заболеваемости, смертности, количества несчастных случаев, в медицинской диагностике, организации здраво­охранения и др.

Изучение каждого отдельного явления с выполнением некото­рого определенного комплекса условий называется испытанием.

Всякий результат или исход испытания называется со­бытием.

События принято обозначать заглавными буквами латинского алфавита А, В, С,...

Возможность появления каждого события определяется спе­циальной величиной, вероятно­стью наступления события - Р(А). Есть два способа определения вероятности.

1. Пусть из N выниманий шара из урны с разно­цветными ша­рами (с возвращением их обратно) было извлечено М белых ша­ров. М - называют частотой наступления событий, отношение M/N - частостью или относительной частотой. При небольшом количестве испытаний частость может при­нимать довольно различные значения в различных сериях опытов. При значительном числе испытаний частость принимает практи­чески устойчивое значение.

Вероятностью случайного события называ­ется предел, к которому стремится час­тость при неограниченном увеличении числа испытаний.

Р(А) = limN→∞ M/N

Это статистическое определение вероятности.

2. Поставим задачу: определить вероятность выпадения 6 при бросании игральной кости. При однократном бросании игральной кости все события (выпадение 1, 2, 3,....) являются равно­возможными, единственно возможными и несовместимыми. События называются несо­вместимыми, если в условиях испытания каждый раз возможно появление одного из них.

Под вероятностью наступления события понимается отно­шение числа исходов, благоприятствующих наступлению данно­го события, к числу всех несовместимых, един­ственно возмож­ных и равновозможных исходов испытания.

Это классическое определение вероятности. В общем виде P (A) = m/n,

где m - число благоприятствующих событий, n - число всех возможных событий при однократ­ном испытании. В нашем при­мере Р(А)=1/6. Следует подчеркнуть, что 0< Р(А)<1, причем, если Р = 0, то событие невозможно, если Р = 1, то такое событие называется до­стоверным. Вели­чина вероятности наступления одного из случай­ных со­бытий предсказывает возможность его появления при конкретном испытании. Напри­мер, появление первого белого шара при одно­кратном извлечении из урны с разноцветными шарами, диагноз заболевания у конкретного больного и т.д. На практике часто возникает необходимость определения ве­роятности наступления двух или более несовместимых событий; не важно какого, при однократном испытании. Например, выпа­дение на верхней грани игральной кости четного чирла. Ответ на этот вопрос дает теорема сложения вероятностей.

Вероятность появления одного (безразлично какого) собы­тия из нескольких несовмести­мых событий равна сумме вероят­ностей этих событий

Р или В или С...) = Р (А) + Р (В) + Р (С) + ...

В приведенном примере вероятность выпадения четного чис­ла на верхней грани игральной кости

Р (2 или 4 или 6) = Р (2) + Р (4) + Р (6) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2;

Вероятность одновременного появления двух или более незави­симых событий равна произве­дению вероятностей каждого из них.

Р (А и В и С)= Р (А) * Р (В) * Р (С)

Это теорема произведения вероятностей.

Пример. Найдите вероятность того, что в семье из трех де­тей родятся два сына и одна дочь.

Вероятность рождения мальчика Р(А) = 0,515, вероятность рождения девочки Р(В) = 0,485.

Р (А и В и С) = Р (А) * Р (В) * Р (С) = 0,515 * 0,515 * 0,485 = 0,129

Рассмотрим простую задачу из теории игр. Из урны ,в кото­рой среди 10 шаров, имеется 6 белых, извлекают последователь­но шары, не возвращая их обратно. Определить вероятность того, что второй извлеченный шар окажется белым .Вероятность из­влечения первого белого шара Р(А)= 6/10. А вероятность извле­чения второго белого шара зависит от того, имело ли первое со­бытие место. Если первым был белый шар, то вероятность из­влечения второго белого шара равна Р(В)=5/9. Если первый шар не белый, то Р(В)=6/9. Таким образом, вероятность наступ­ления второго события зависит от первого события. Такая вероятность наступления собы­тия называется условной вероятностью и обо­значается РА(В) - если первое событие имело место, Р-A(В) - если первое событие не имело место. А - событие противопо­ложное событию А.

Сумма вероятностей всех возможных событий при данном испытании равна 1:

Р(А)+Р(В)+Р(С) +... = 1

Изучая какое-либо явление, мы всегда имеем дело с совокуп­ностью величин, описывающих его. Эти величины даже для одного и того же явления несколько изменяются, варьируют в различ­ных измерениях. Особенно это положение относится к области биологии и медицины, где эти изменения могут быть весьма су­ществен­ными, т.к. развитие живого организма определя­ется очень многими и разнообразными усло­виями внутреннего и внешнего порядка. По­этому, в результате изучения у ряда особей какого-либо качественного или количественного признака будет полу­чаться не одно, а целый ряд значений, обычно не совпадающих между собой.

Такие величины, которые в зависимости от обстоятельств могут принимать те или иные значения, называются случайны­ми величинами. Случайная величина, принимаю­щая только определённые числовые значения, называется дискретной.

Например: оценка, полученная на экзамене - 2, 3, 4, 5, но­мера выигрышных билетов в лотерее, число форменных элемен­тов в крови, количество заболеваний и др.

Случайные величины обозначаются X, Y, Z, ..., а их возмож­ные значения – х1, х2, х3,..., хi,... хn; у1, у2, у3,... ,yi;... уn.

Представление возможных значений дис­кретной случайной величины и соответст­вующих им вероятностей называют зако­ном или функцией распределения случайной величины.

Закон или функция распределения могут быть заданы графи­чески, аналитически, в виде таб­лицы. На практике дискретные случайные величины характеризуют­ся числовыми парамет­рами, связанными с законом распределе­ния. Это математическое ожидание, дисперсия, среднее квадра­тичное отклонение.

Математическим ожиданием случайной величины называ­ется сумма произведений всех её возможных значений на их ве­роятности.

М(Х) = ∑ xiPi

Отдельные значения случайной величины группируются око­ло математического ожидания. Степень рассеивания характеризу­ется диспер­сией.

Дисперсией называется математическое ожидание квадрата отклонения случайной величины от её математического ожидания.

D(X) = M[xi - M(X)]2

Можно доказать, что D(X) = ∑ Рii - М (X)]2

Средним квадратичным отклонением случайной величины на­зывается корень квадратный из дисперсии.

σ(X) = (D(X))1/2

Математическое ожидание и среднее квадратич­ное отклоне­ние определяют интервал, внутри которого находится истинное значение измеряе­мой величины.

хист = M(Х) ± (Х)

Величина, принимающая любые значения в определенном ин­тервале, называется непре­рывной.

Например: мгновенные значения скорости теплового движе­ния молекул, температура тела человека, процентное содержание кислорода в воздухе, плотность воздуха в зависимости от высоты над поверхностью земли и др. Для непрерывной величины харак­терны те же параметры, что и для случайной — М(Х), D(X), o(X). Т.к. невозможно перечислить все значения непрерывной слу­чайной величины и указать их вероятности, то промежуток меж­ду крайними значениями делят на определенное количество ин­тервалов и определяют вероятность того, что те или иные значе­ния её попадают в эти интер­валы.

Такую функцию распределения непрерывной случайной вели­чины называют плотностью вероятности.

φ (X) = Р (α< X <β)

В качестве примера рассмотрим эксперимен­тальное распре­деление биопотенциалов, изме­ренных у 100 электрических скатов в момент возбуждения. В этой серии опытов максимальное зна­чение напряжения было равно 901 В , мини­мальное - 789 В.

- весь диапазон измеренных напряжений разбивают на несколько интервалов (в нашем примере на 7) и определяют ширину интервала по формуле (х max - x min) / 7 = (901 - 789)/7 = 16

- определяют средину каждого интервала - < xi >,

- определяют сколько значений измеренных напряжений по­падают в каждый интервал - mi,

- определяют вероятность попадания измеряемой величины в каждый интервал – Pi = mi/n.

По этой форме в таблице представлено непре­рывное распределение биопотенциалов, изме­ренных у 100 электрических скатов.

Пользуясь данными таблицы, определяют параметры распре­деления М(Х), D(X), σ(X) так же, как и при распределении диск­ретной вели­чины. Среди многих способов графического представления распреде­ления чаще всего применяются два: построение полигона (т.е. мно­гоугольника) и построение гистограммы (столб­чатой диаграммы).

В первом случае, экспериментальные точки соединяют после­довательно прямыми линиями или линиями плавного перехода. Координатами точек являются: по оси абсцисс - середина интервала < xi >, по оси ординат - значение вероятности Рi или частоты mi. Во втором случае графическое изображение представляется в виде прямоугольников, основание которых соответствует ширине интервала xmin - х mах, а высота значению вероятности Pi или час­тоты mi . В качестве примеров распределения непрерыв­ной случайной величины рассмотрим три вида теоретических распределений.