Нормальное распределение непрерывной случайной величины. Нормальный закон распределения вероятностей Записать функцию плотности нормального распределения

Краткая теория

Нормальным называют распределение вероятностей непрерывной случайной величины , плотность которого имеет вид:

где – математическое ожидание , – среднее квадратическое отклонение .

Вероятность того, что примет значение, принадлежащее интервалу :

где – функция Лапласа :

Вероятность того, что абсолютная величина отклонения меньше положительного числа :

В частности, при справедливо равенство:

При решении задач, которые выдвигает практика, приходится сталкиваться с различными распределениями непрерывных случайных величин .

Кроме нормального распределения, основные законы распределения непрерывных случайных величин:

Пример решения задачи

На станке изготавливается деталь. Ее длина - случайная величина, распределенная по нормальному закону с параметрами , . Найти вероятность того, что длина детали будет заключена между 22 и 24,2 см. Какое отклонение длины детали от можно гарантировать с вероятностью 0,92; 0,98? В каких пределах, симметричных относительно , будут лежать практически все размеры деталей?

вступайте в группу ВК .

Решение:

Вероятность того, что случайная величина, распределенная по нормальному закону, будет находиться в интервале :

Получаем:

Вероятность того, что случайная величина, распределенная по нормальному закону, отклонится от среднего не более чем на величину :

По условию

:

Если вам сейчас не требуется помощь, но может потребоваться в дальнейшем, то, чтобы не потерять контакт,

В теории вероятностей рассматривается достаточно большое количество разнообразных законов распределения. Для решения задач, связанных с построением контрольных карт, представляют интерес лишь некоторые из них. Важнейшим из них является нормальный закон распределения , который применяется для построения контрольных карт, используемых при контроле по количественному признаку , т.е. когда мы имеем дело с непрерывной случайной величиной. Нормальный закон распределения занимает среди других законов распределения особое положение. Это объясняется тем, что, во-первых, наиболее часто встречается на практике, и, во-вторых, он является предельным законом, к которому приближаются другие законы распределения при весьма часто встречающихся типичных условиях. Что касается второго обстоятельства, то в теории вероятностей доказано, что сумма достаточно большого числа независимых (или слабо зависимых) случайных величин, подчиненных каким угодно законам распределения (при соблюдении некоторых весьма нежестких ограничений), приближенно подчиняется нормальному закону, и это выполняется тем точнее, чем большее количество случайных величин суммируется. Большинство встречающихся на практике случайных величин, таких, например, как ошибки измерений, могут быть представлены как сумма весьма большего числа сравнительно малых слагаемых - элементарных ошибок, каждая из которых вызвана действием отдельной причины, независящей от остальных. Нормальный закон проявляется в тех случаях, когда случайная переменная Х является результатом действия большого числа различных факторов. Каждый фактор в отдельности на величину Х влияет незначительно, и нельзя указать, какой именно влияет в большей степени, чем остальные.

Нормальное распределение (распределение Лапласа–Гаусса ) – распределение вероятностей непрерывной случайной величины Х такое, что плотность распределения вероятностей при - ¥ <х< + ¥ принимает действительное значение:

Ехр (3)

То есть, нормальное распределение характеризуется двумя параметрами m и s, где m - математическое ожидание; s- стандартное отклонение нормального распределения.

Величина s 2 – это дисперсия нормального распределения.

Математическое ожидание m характеризует положение центра распределения, а стандартное отклонение s (СКО) является характеристикой рассеивания (рис. 3).

f(x) f(x)


Рисунок 3 – Функции плотности нормального распределения с:

а) разными математическими ожиданиями m; б) разными СКО s .

Таким образом, значением μ определяется положением кривой распределения на оси абсцисс. Размерность μ - та же, что и размерность случайной величины X . С ростом математического ожидания mобе функции сдвигается параллельно вправо. С убывающей дисперсией s 2 плотность все больше концентрируется вокруг m, в то время как функция распределения становится все более крутой.

Значением σ определяется форма кривой распределения. Поскольку площадь под кривой распределения должна всегда оставаться равной единице, то при увеличении σ кривая распределения становится более плоской. На рис. 3.1 показаны три кривые при разных σ: σ1 = 0,5; σ2 = 1,0; σ3 = 2,0.

Рисунок 3.1 – Функции плотности нормального распределения с разными СКО s .

Функция распределения (интегральная функция) имеет вид (рис. 4):

(4)

Рисунок 4 – Интегральная (а) и дифференциальная (б) функции нормального распределения

Особенно важно то линейное преобразование нормально распределенной случайной переменной Х , после которого получается случайная переменная Z с математическим ожиданием 0 и дисперсией 1. Такое преобразование называется нормированием:

Его можно провести для каждой случайной переменной. Нормирование позволяет все возможные варианты нормального распределения свести к одному случаю: m = 0, s = 1.

Нормальное распределение с m = 0, s = 1 называется нормированным нормальным распределением (стандартизованным) .

Стандартное нормальное распределение (стандартное распределение Лапласа–Гаусса или нормированное нормальное распределение) – это распределение вероятностей стандартизованной нормальной случайной величины Z , плотность распределения которой равна:

при - ¥ <z < + ¥

Значения функции Ф(z) определяется по формуле:

(7)

Значения функции Ф(z) и плотности ф(z) нормированного нормального распределения рассчитаны и сведены в таблицы (табулированы). Таблица составлена только для положительных значений z поэтому:

Ф (z) = 1 Ф (z) (8)

С помощью этих таблиц можно определить не только значения функции и плотности нормированного нормального распределения для заданного z , но и значения функции общего нормального распределения, так как:

; (9)

. 10)

Во многих задачах, связанных с нормально распределенными случайными величинами, приходится определять вероятность попадания случайной величины Х , подчиненной нормальному закону с параметрами m и s, на определенный участок. Таким участком может быть, например, поле допуска на параметр от верхнего значения U до нижнего L .

Вероятность попадания в интервал от х 1 до х 2 можно определить по формуле:

Таким образом, вероятность попадания случайной величины (значение параметра) Х в поле допуска определяется формулой

Можно найти вероятность того, что случайная переменная Х окажется в пределах μ k s. Полученные значения для k =1,2 и 3 следующие (также смотрим рис. 5):

Таким образом, если какое-либо значение появляется за пределами трехсигмового участка, в котором находятся 99,73% всех возможных значений, а вероятность появления такого события очень мала (1:270), следует считать, что рассматриваемое значение оказалось слишком маленьким или слишком большим не из-за случайного варьирования, а из-за существенной помехи в самом процессе, способной вызывать изменения в характере распределения.

Участок, лежащий внутри трехсигмовых границ, называют также областью статистического допуска соответствующей машины или процесса.

(вещественный, строго положительный)

Норма́льное распределе́ние , также называемое распределением Гаусса или Гаусса - Лапласа - распределение вероятностей , которое в одномерном случае задаётся функцией плотности вероятности , совпадающей с функцией Гаусса :

f (x) = 1 σ 2 π e − (x − μ) 2 2 σ 2 , {\displaystyle f(x)={\frac {1}{\sigma {\sqrt {2\pi }}}}\;e^{-{\frac {(x-\mu)^{2}}{2\sigma ^{2}}}},}

где параметр μ - математическое ожидание (среднее значение), медиана и мода распределения, а параметр σ - среднеквадратическое отклонение ( σ  ² - дисперсия) распределения.

Таким образом, одномерное нормальное распределение является двухпараметрическим семейством распределений. Многомерный случай описан в статье «Многомерное нормальное распределение ».

Стандартным нормальным распределением называется нормальное распределение с математическим ожиданием μ = 0 и стандартным отклонением σ = 1 .

Энциклопедичный YouTube

  • 1 / 5

    Важное значение нормального распределения во многих областях науки (например, в математической статистике и статистической физике) вытекает из центральной предельной теоремы теории вероятностей . Если результат наблюдения является суммой многих случайных слабо взаимозависимых величин, каждая из которых вносит малый вклад относительно общей суммы, то при увеличении числа слагаемых распределение центрированного и нормированного результата стремится к нормальному. Этот закон теории вероятностей имеет следствием широкое распространение нормального распределения, что и стало одной из причин его наименования.

    Свойства

    Моменты

    Если случайные величины X 1 {\displaystyle X_{1}} и X 2 {\displaystyle X_{2}} независимы и имеют нормальное распределение с математическими ожиданиями μ 1 {\displaystyle \mu _{1}} и μ 2 {\displaystyle \mu _{2}} и дисперсиями σ 1 2 {\displaystyle \sigma _{1}^{2}} и σ 2 2 {\displaystyle \sigma _{2}^{2}} соответственно, то X 1 + X 2 {\displaystyle X_{1}+X_{2}} также имеет нормальное распределение с математическим ожиданием μ 1 + μ 2 {\displaystyle \mu _{1}+\mu _{2}} и дисперсией σ 1 2 + σ 2 2 . {\displaystyle \sigma _{1}^{2}+\sigma _{2}^{2}.} Отсюда вытекает, что нормальная случайная величина представима как сумма произвольного числа независимых нормальных случайных величин.

    Максимальная энтропия

    Нормальное распределение имеет максимальную дифференциальную энтропию среди всех непрерывных распределений, дисперсия которых не превышает заданную величину .

    Моделирование нормальных псевдослучайных величин

    Простейшие приближённые методы моделирования основываются на центральной предельной теореме . Именно, если сложить несколько независимых одинаково распределённых величин с конечной дисперсией , то сумма будет распределена приблизительно нормально. Например, если сложить 100 независимых стандартно равномерно  распределённых случайных величин, то распределение суммы будет приближённо нормальным .

    Для программного генерирования нормально распределённых псевдослучайных величин предпочтительнее использовать преобразование Бокса - Мюллера . Оно позволяет генерировать одну нормально распределённую величину на базе одной равномерно распределённой.

    Нормальное распределение в природе и приложениях

    Нормальное распределение часто встречается в природе. Например, следующие случайные величины хорошо моделируются нормальным распределением:

    • отклонение при стрельбе.
    • погрешности измерений (однако погрешности некоторых измерительных приборов имеют не нормальные распределения).
    • некоторые характеристики живых организмов в популяции.

    Такое широкое распространение этого распределения связано с тем, что оно является бесконечно делимым непрерывным распределением с конечной дисперсией. Поэтому к нему в пределе приближаются некоторые другие, например, биномиальное и пуассоновское . Этим распределением моделируются многие не детерминированные физические процессы.

    Связь с другими распределениями

    • Нормальное распределение является распределением Пирсона типа XI .
    • Отношение пары независимых стандартных нормально распределенных случайных величин имеет распределение Коши . То есть, если случайная величина X {\displaystyle X} представляет собой отношение X = Y / Z {\displaystyle X=Y/Z} (где Y {\displaystyle Y} и Z {\displaystyle Z} - независимые стандартные нормальные случайные величины), то она будет обладать распределением Коши.
    • Если z 1 , … , z k {\displaystyle z_{1},\ldots ,z_{k}} - совместно независимые стандартные нормальные случайные величины, то есть z i ∼ N (0 , 1) {\displaystyle z_{i}\sim N\left(0,1\right)} , то случайная величина x = z 1 2 + … + z k 2 {\displaystyle x=z_{1}^{2}+\ldots +z_{k}^{2}} имеет распределение хи-квадрат с k степенями свободы.
    • Если случайная величина X {\displaystyle X} подчинена логнормальному распределению , то её натуральный логарифм имеет нормальное распределение. То есть, если X ∼ L o g N (μ , σ 2) {\displaystyle X\sim \mathrm {LogN} \left(\mu ,\sigma ^{2}\right)} , то Y = ln ⁡ (X) ∼ N (μ , σ 2) {\displaystyle Y=\ln \left(X\right)\sim \mathrm {N} \left(\mu ,\sigma ^{2}\right)} . И наоборот, если Y ∼ N (μ , σ 2) {\displaystyle Y\sim \mathrm {N} \left(\mu ,\sigma ^{2}\right)} , то X = exp ⁡ (Y) ∼ L o g N (μ , σ 2) {\displaystyle X=\exp \left(Y\right)\sim \mathrm {LogN} \left(\mu ,\sigma ^{2}\right)} .
    • Отношение квадратов двух стандартных нормальных случайных величин имеет имеет

    Случайные величины связаны со случайными событиями. О случайных событиях говорят тогда, когда оказывается невозможным однозначно предсказать результат, который может быть получен в тех или иных условиях.

    Предположим, мы бросаем обыкновенную монету. Обычно результат этой процедуры не является однозначно определенным. Можно лишь с уверенностью утверждать, что произойдет одно из двух: либо выпадет "орел", либо "решка". Любое из этих событий будет случайным. Можно ввести переменную, которая будет описывать исход этого случайного события. Очевидно, что эта переменная будет принимать два дискретных значения: "орел" и "решка". Поскольку мы заранее точно не можем предугадать, какое из двух возможных значений примет эта переменная, можно утверждать, что в этом случае мы имеем дело со случайными величинами.

    Предположим теперь, что в эксперименте мы проводим оценку времени реакции испытуемого при предъявлении какого-либо стимула. Как правило, оказывается, что даже тогда, когда экспериментатор предпримет все меры к тому, чтобы стандартизировать экспериментальные условия, минимизировав или даже сведя к нулю возможные вариации в предъявлении стимула, измеренные величины времени реакции испытуемого все равно будут различаться. В таком случае говорят, что время реакции испытуемого описывается случайной величиной. Поскольку в принципе в эксперименте мы можем получить любое значение времени реакции – множество возможных значений времени реакции, которые можно получить в результате измерений, оказывается бесконечным, – говорят о непрерывности этой случайной величины.

    Возникает вопрос: существуют ли какие-либо закономерности в поведении случайных величин? Ответ на этот вопрос оказывается утвердительным.

    Так, если провести бесконечно большое число подбрасываний одной и той же монеты, можно обнаружить, что число выпадений каждой из двух сторон монеты окажется примерно одинаковым, если, конечно, монета не фальшивая и не гнутая. Чтобы подчеркнуть эту закономерность, вводят понятие вероятности случайного события. Ясно, что в случае с подбрасыванием монеты одно из двух возможных событий произойдет непременно. Это обусловлено тем, что суммарная вероятность этих двух событий, иначе называемая полной вероятностью, равна 100%. Если предположить, что оба из двух событий, связанных с испытанием монеты, происходят с равными долями вероятности, то вероятность каждого исхода в отдельности, очевидно, оказывается равной 50%. Таким образом, теоретические размышления позволяют нам описать поведение данной случайной величины. Такое описание в математической статистике обозначается термином "распределение случайной величины" .

    Сложнее обстоит дело со случайной величиной, которая не имеет четко определенного набора значений, т.е. оказывается непрерывной. Но и в этом случае можно отметить некоторые важные закономерности ее поведения. Так, проводя эксперимент с измерением времени реакции испытуемого, можно отметить, что различные интервалы длительности реакции испытуемого оцениваются с разной степенью вероятности. Скорее всего, редко, когда испытуемый будет реагировать слишком быстро. Например, в задачах семантического решения испытуемым практически не удается более или менее точно реагировать со скоростью менее 500 мс (1/2 с). Аналогично маловероятно, что испытуемый, добросовестно следующий инструкциям экспериментатора, будет сильно затягивать свой ответ. В задачах семантического решения, например, реакции, оцениваемые более чем 5 с, обычно рассматриваются как недостоверные. Тем не менее со 100%-ной уверенностью можно предполагать, что время реакции испытуемого окажется в диапазоне от О до +со. Но эта вероятность складывается из вероятностей каждого отдельного значения случайной величины. Поэтому распределение непрерывной случайной величины можно описать в виде непрерывной функции у = f (х ).

    Если мы имеем дело с дискретной случайной величиной, когда все возможные ее значения заранее известны, как в примере с монетой, построить модель ее распределения, как правило, оказывается не очень сложным. Достаточно ввести лишь некоторые разумные допущения, как мы это сделали в рассматриваемом примере. Сложнее обстоит дело с распределением непрерывных величии, принимающих заранее неизвестное число значений. Конечно, если бы мы, например, разработали теоретическую модель, описывающую поведение испытуемого в эксперименте с измерением времени реакции при решении задачи семантического решения, можно было бы попытаться на основе этой модели описать теоретическое распределение конкретных значений времени реакции одного и того же испытуемого при предъявлении одного и того же стимула. Однако такое не всегда оказывается возможным. Поэтому экспериментатор бывает вынужденным предположить, что распределение интересующей его случайной величины описывается каким-либо уже заранее исследованным законом. Чаще всего, хотя это, возможно, и не всегда оказывается абсолютно корректным, для этих целей используется так называемое нормальное распределение, выступающее в качестве эталона распределения любой случайной величины независимо от ее природы. Это распределение впервые было описано математически еще в первой половине XVIII в. де Муавром.

    Нормальное распределение имеет место тогда, когда интересующее нас явление подвержено влиянию бесконечного числа случайных факторов, уравновешивающих друг друга. Формально нормальное распределение, как показал де Муавр, может быть описано следующим соотношением:

    где х представляет собой интересующую нас случайную величину, поведение которой мы исследуем; Р – значение вероятности, связанное с этой случайной величиной; π и е – известные математические константы, описывающие соответственно отношение длины окружности к диаметру и основание натурального логарифма; μ и σ2 – параметры нормального распределения случайной величины – соответственно математическое ожидание и дисперсия случайной величины х.

    Для описания нормального распределения оказывается необходимым и достаточным определение лишь параметров μ и σ2.

    Поэтому если мы имеем случайную величину, поведение которой описывается уравнением (1.1) с произвольными значениями μ и σ2, то можем обозначить его как Ν (μ, σ2), не держа в памяти всех деталей этого уравнения.

    Рис. 1.1.

    Любое распределение можно представить наглядно в виде графика. Графически нормальное распределение имеет вид колоколообразной кривой, точная форма которой определяется параметрами распределения, т.е. математическим ожиданием и дисперсией. Параметры нормального распределения могут принимать практически любые значения, которые оказываются ограничены лишь используемой экспериментатором измерительной шкалой. В теории значение математического ожидания может равняться любому числу из диапазона чисел от -∞ до +∞, а дисперсия – любому неотрицательному числу. Поэтому существует бесконечное множество различных видов нормального распределения и соответственно бесконечное множество кривых, его представляющих (имеющих, однако, сходную колоколообразную форму). Понятно, что все их описать невозможно. Однако, если известны параметры конкретного нормального распределения, его можно преобразовать к так называемому единичному нормальному распределению, математическое ожидание для которого равно нулю, а дисперсия – единице. Такое нормальное распределение называют еще стандартным или z-распределением. График единичного нормального распределения представлен на рис. 1.1, откуда очевидно, что вершина колоколообразной кривой нормального распределения характеризует величину математического ожидания. Другой параметр нормального распределения – дисперсия – характеризует степень "распластанности" колоколообразной кривой относительно горизонтали (оси абсцисс).

    На практике большинство случайных величин, на которых воздействует большое количество случайных факторов, подчиняются нормальному закону распределения вероятностей. Поэтому в различных приложениях теории вероятностей этот закон имеет особое значение.

    Случайная величина $X$ подчиняется нормальному закону распределения вероятностей, если ее плотность распределения вероятностей имеет следующий вид

    $$f\left(x\right)={{1}\over {\sigma \sqrt{2\pi }}}e^{-{{{\left(x-a\right)}^2}\over {2{\sigma }^2}}}$$

    Схематически график функции $f\left(x\right)$ представлен на рисунке и имеет название «Гауссова кривая». Справа от этого графика изображена банкнота в 10 марок ФРГ, которая использовалась еще до появления евро. Если хорошо приглядеться, то на этой банкноте можно заметить гауссову кривую и ее первооткрывателя величайшего математика Карла Фридриха Гаусса.

    Вернемся к нашей функции плотности $f\left(x\right)$ и дадим кое-какие пояснения относительно параметров распределения $a,\ {\sigma }^2$. Параметр $a$ характеризует центр рассеивания значений случайной величины, то есть имеет смысл математического ожидания. При изменении параметра $a$ и неизмененном параметре ${\sigma }^2$ мы можем наблюдать смещение графика функции $f\left(x\right)$ вдоль оси абсцисс, при этом сам график плотности не меняет своей формы.

    Параметр ${\sigma }^2$ является дисперсией и характеризует форму кривой графика плотности $f\left(x\right)$. При изменении параметра ${\sigma }^2$ при неизмененном параметре $a$ мы можем наблюдать, как график плотности меняет свою форму, сжимаясь или растягиваясь, при этом не сдвигаясь вдоль оси абсцисс.

    Вероятность попадания нормально распределенной случайной величины в заданный интервал

    Как известно, вероятность попадания случайной величины $X$ в интервал $\left(\alpha ;\ \beta \right)$ можно вычислять $P\left(\alpha < X < \beta \right)=\int^{\beta }_{\alpha }{f\left(x\right)dx}$. Для нормального распределения случайной величины $X$ с параметрами $a,\ \sigma $ справедлива следующая формула:

    $$P\left(\alpha < X < \beta \right)=\Phi \left({{\beta -a}\over {\sigma }}\right)-\Phi \left({{\alpha -a}\over {\sigma }}\right)$$

    Здесь функция $\Phi \left(x\right)={{1}\over {\sqrt{2\pi }}}\int^x_0{e^{-t^2/2}dt}$ - функция Лапласа. Значения этой функции берутся из . Можно отметить следующие свойства функции $\Phi \left(x\right)$.

    1 . $\Phi \left(-x\right)=-\Phi \left(x\right)$, то есть функция $\Phi \left(x\right)$ является нечетной.

    2 . $\Phi \left(x\right)$ - монотонно возрастающая функция.

    3 . ${\mathop{lim}_{x\to +\infty } \Phi \left(x\right)\ }=0,5$, ${\mathop{lim}_{x\to -\infty } \Phi \left(x\right)\ }=-0,5$.

    Для вычисления значений функции $\Phi \left(x\right)$ можно также воспользоваться мастером функция $f_x$ пакета Excel: $\Phi \left(x\right)=НОРМРАСП\left(x;0;1;1\right)-0,5$. Например, вычислим значений функции $\Phi \left(x\right)$ при $x=2$.

    Вероятность попадания нормально распределенной случайной величины $X\in N\left(a;\ {\sigma }^2\right)$ в интервал, симметричный относительно математического ожидания $a$, может быть вычислена по формуле

    $$P\left(\left|X-a\right| < \delta \right)=2\Phi \left({{\delta }\over {\sigma }}\right).$$

    Правило трех сигм . Практически достоверно, что нормально распределенная случайная величина $X$ попадет в интервал $\left(a-3\sigma ;a+3\sigma \right)$.

    Пример 1 . Случайная величина $X$ подчинена нормальному закону распределения вероятностей с параметрами $a=2,\ \sigma =3$. Найти вероятность попадания $X$ в интервал $\left(0,5;1\right)$ и вероятность выполнения неравенства $\left|X-a\right| < 0,2$.

    Используя формулу

    $$P\left(\alpha < X < \beta \right)=\Phi \left({{\beta -a}\over {\sigma }}\right)-\Phi \left({{\alpha -a}\over {\sigma }}\right),$$

    находим $P\left(0,5;1\right)=\Phi \left({{1-2}\over {3}}\right)-\Phi \left({{0,5-2}\over {3}}\right)=\Phi \left(-0,33\right)-\Phi \left(-0,5\right)=\Phi \left(0,5\right)-\Phi \left(0,33\right)=0,191-0,129=0,062$.

    $$P\left(\left|X-a\right| < 0,2\right)=2\Phi \left({{\delta }\over {\sigma }}\right)=2\Phi \left({{0,2}\over {3}}\right)=2\Phi \left(0,07\right)=2\cdot 0,028=0,056.$$

    Пример 2 . Предположим, что в течение года цена на акции некоторой компании есть случайная величина, распределенная по нормальному закону с математическим ожиданием, равным 50 условным денежным единицам, и стандартным отклонением, равным 10. Чему равна вероятность того, что в случайно выбранный день обсуждаемого периода цена за акцию будет:

    а) более 70 условных денежных единиц?

    б) ниже 50 за акцию?

    в) между 45 и 58 условными денежными единицами за акцию?

    Пусть случайная величина $X$ - цена на акции некоторой компании. По условию $X$ подчинена нормальному закону распределению с параметрами $a=50$ - математическое ожидание, $\sigma =10$ - стандартное отклонение. Вероятность $P\left(\alpha < X < \beta \right)$ попадания $X$ в интервал $\left(\alpha ,\ \beta \right)$ будем находить по формуле:

    $$P\left(\alpha < X < \beta \right)=\Phi \left({{\beta -a}\over {\sigma }}\right)-\Phi \left({{\alpha -a}\over {\sigma }}\right).$$

    $$а)\ P\left(X>70\right)=\Phi \left({{\infty -50}\over {10}}\right)-\Phi \left({{70-50}\over {10}}\right)=0,5-\Phi \left(2\right)=0,5-0,4772=0,0228.$$

    $$б)\ P\left(X < 50\right)=\Phi \left({{50-50}\over {10}}\right)-\Phi \left({{-\infty -50}\over {10}}\right)=\Phi \left(0\right)+0,5=0+0,5=0,5.$$

    $$в)\ P\left(45 < X < 58\right)=\Phi \left({{58-50}\over {10}}\right)-\Phi \left({{45-50}\over {10}}\right)=\Phi \left(0,8\right)-\Phi \left(-0,5\right)=\Phi \left(0,8\right)+\Phi \left(0,5\right)=$$

gastroguru © 2017