Как да определите нормалното разпределение
Как да определите нормалното разпределение
Нормално разпределение (това е същото разпределениеGauss) има ограничителен характер. На него при определени условия всички други дистрибуции се събират. Ето защо някои характеристики на нормалните случайни променливи са екстремни. Това ще бъде приложено, когато отговаряте на въпрос.
инструкция
1
За да се отговори на въпроса, е случаеннормалната стойност, е възможно да се изготви концепция ентропията Н (х), възниква в теорията на информацията. Фактът, че всяка отделна връзка, образувана от N символа X = {X,, x₂, ... Xn}, може да се разбира като дискретна случайна променлива, предварително определен до вероятности. Ако вероятността от използването на символи, като h₅ е R ^, след това така е вероятността на събитие X = h₅. Условия за теорията на информацията, които вземаме друга концепция количеството информация (или по-скоро със собствена информация) I (XI) = ℓog (1 / P (XI)) = - ℓogP (XI). За краткост място P (XI) = Pi. Логаритми се вземат на основата на 2 такива основания не са написани по конкретен начин. От тук, между другото, двоична единица (двоична цифра) - малко.
2
Ентропията е средният брой наинформация в една стойност на случайна променлива Н (х) = М [-ℓogPi] = - ΣPi ∙ ℓogPi (сумиране над и vedetcya от 1 до п). И има непрекъснато разпределение. За да се изчисли ентропията на непрекъсната случайна променлива, представете си, че в дискретна форма. Пробив стойности част площ на малки интервали делтан (стъпка квантуване). Като възможно вземат стойности, съответстващи на средна ьН, а вместо това се използва неговата вероятност Pi≈w елемент площ (XI) Δx. Ситуацията е илюстрирана на фиг. 1. На нея, до малки детайли, показва кривата на Гаус, което е графично представяне на плътността на вероятността на нормалното разпределение. Тук е дадена формулата за вероятната плътност на това разпределение. Внимателно обмислете тази крива, сравнете я с данните, които имате. Може би отговорът на въпроса вече е изяснен? Ако не, струва си да продължите.
3
Използвайте предложената в предишната методологиястъпка. Направете редица вероятности на сега дискретна случайна променлива. Намерете неговата ентропия и преминете към непрекъснатото разпределение като n → ∞ (Δx → 0). Всички изчисления са показани на фиг. 2.
4
Човек може да докаже, че нормалното (Gaussian)разпределенията притежават максимална ентропия в сравнение с всички останали. Един прост изчисляване на крайната формула на предишния етап Н (х) = М [-ℓogw (х)], се получи това ентропията. Не се изисква интеграция. Свойствата на математическото очакване са достатъчни. Получаване на Н (х) = ℓog₂ (σh√ (2πe)) = ℓog₂ (σh) + ℓog₂ (√ (2πe)) ≈ℓog₂ (σx) 2045. Това е максимално възможното. Сега, като се използват всички налични за вашата дистрибуция на данни (в диапазона от обикновен статистически агрегат), за да намери своето противоречие Dx = (σx) ². Заместете изчисленото σx в израза за максималната ентропия. Изчислете ентропията на случайната променлива H (x), която проучвате.
5
Направете съотношението H (x) / Hmax (x) = ε. Независимо избирайте вероятността εο, която може да се счита за почти равна на единството при вземането на решение за близостта на разпределението и нормалното. Обадете го, да речем, вероятността вероятност. Препоръчват се стойности, по-големи от 0,95. Ако се окаже, че ε> εo, то вие (с вероятност най-малко ε0) се справяте с Gaussian разпределението.