Варијанса

Од Википедија, слободната енциклопедија
Прејди на: содржини, барај

Во теоријата на веројатност и статистиката, варијанса на случајна променлива, распределба на веројатноста или примерок е мерка на статистичката дисперзија, пресметувајќи ја средната вредност на квадриранато растојание на дадените вредности од очекуваните (средини). Бидејќи средината е наичн за да се опише локацијата на дистрибуцијата, варијансата е начин за да се пресмета нејзиниот опсег или степен на ширење. Единицата на варијансата е квадрат од оригиналната променлива. Позитивниот квадратен корен од варијансата се нарекува стандардно отстапување и има исти единици како и променливата и може да биде полесно да се објасни поради оваа причина.

Варијансата од реално-вредносна случајно избрана променлива е неговиот втор централен момент и често се случува да биде негова втора кумуланта. Како што некои распределби немаат средина, така некои немаат ни варијанса. Средината постои секогаш кога постои варијанса, но не и обратно.

Дефиниција[уреди]

Ако случајната променлива X има очекувана вредност (средина) μ = E(X), тогаш варијансата Var(X) од X е дадена со:

\operatorname{Var}(X) = \operatorname{E}[ ( X - \mu ) ^ 2 ].\,

Оваа дефиниција ги опкружува случајните променливи, кои се дискретни, континуирани или ниту како првите ниту како вторите. Од сите точки за кои квадрираните отстапувања се пресметуваат, средината создава минимална вредност за средниот збир од квадрираните отстапувања.

Оваа дефиниција за случајната променлива X обично се запишува како Var(X), \scriptstyle\sigma_X^2 или едноставно σ2. Ако распределбата нема очекувана вредност, како во случајот со Кошиевата распределба, тогаш нема ни варијанса. Многу други распределби за ко очекуваната вредност постои немаат конечна варијанса, бидејќи нејзиниот интеграл дивергира. Пример е Паретовата распределба, чијшто Паретов индекс k го задоволува условот1 < k ≤ 2.

Непрекинат случај[уреди]

Ако случајната променлива X е непрекината со густина на веројатноста p(x),

\operatorname{Var}(X) =\int (x-\mu)^2 \, p(x) \, dx\,,

where

\mu = \int x \, p(x) \, dx\,,

и каде интегралите се определени интеграли земен за x со опсег над опсегот на X.

Прекинат случај[уреди]

IАко случајната променлива X е прекината со функцијата на веројатноста x1 ↦ p1, ..., xn ↦ pn,

\operatorname{Var}(X) = \sum_{i=1}^n p_i (x_i - \mu)^2\,.

(Кога прекинатата немерлива варијанса е специфична со немерливост, чијшто збир не е 1, тогаш еден поделен со сумата на немерливоста.) Топа е очекуванат вредност на квадратот на отстапувањето на X од неговата средина. Поедноставно каано, оа може да биде изразено како „просекот на квадратот на растојанието на секој податок од средината“. Тоа е средното квадриорано отстапување.

Примери[уреди]

Експоненцијална распределба[уреди]

Експоненцијалната распределба со прамаетар λ е непрекината распределба, чија поддршка е полуотворениот интервал [0,∞). Неговата непрекината распределба на веројатноста е дадена со:

f(x) = \lambda e^{-\lambda x},\,

и има очекувана вредност μ = λ−1. Поради тоа варијансата е еднаква на:

\int_0^\infty f(x) (x - \mu)^2\,dx = \int_0^\infty \lambda e^{-\lambda x} (x - \lambda^{-1})^2\,dx = \lambda^{-2}.\,

За експоненцијалната распределба на случајна променлива σ2 = μ2.

Коцка[уреди]

Шестстраната коцка може да биде моделирана со прекинатата случајна променлива со исход од 1 до 6, од кои секој брј со еднаква веројатност да се падне 1/6. Очекуваната вредност е (1+2+3+4+5+6)/6 = 3.5. Поради тоа варијансата може да биде пресметана со:

\sum_{i=1}^6 \tfrac{1}{6} (i - 3.5)^2 = \tfrac{1}{6}\left((-2.5)^2{+}(-1.5)^2{+}(-0.5)^2{+}0.5^2{+}1.5^2{+}2.5^2\right) = \tfrac{1}{6} \cdot 17.50 = \tfrac{35}{12} = 2.92\,.

Својства[уреди]

Варијансата не може да биде негативна, бидејќи квадратот на некој број секогаш е позитивен или еднаков на нула. Варијансата од случајно избрана променлива е нула и варијансата од променлива во базатаа на податоци е 0, ако и само ако примероците имат иста вредност.

Варијансата е инваријанта во однос на промените во коефициентот на пораст. Ако котсантата се додаде на сите вредности од променливата, тогаш варијансата не се менува. Ако сите вредности се помножат со една иста константа, тогаш варијансата се множи со квадратот од таа константа. Овие две примени може да се изразат во следнава формула:

\operatorname{Var}(aX+b)=a^2\operatorname{Var}(X).

Варијансата од конечна сума на неповрзани случајни променливи е еднаков на збирот на нивните варијанси. Ова придонесува за идентитетот:

\operatorname{Var}(X+Y)=\operatorname{Var}(X)+\operatorname{Var}(Y)+2\operatorname{cov}(X,Y),

и дека за неповрзаните променливи коваријансата е нула.

  1. Да претпоставиме дека набљудувањата може да се поделат во подгрупи според некои, втора варијанса. Тогаш варијансата од целата група е еднаква со средната вредност на варијансите на подгрупите плус варијансата од средните вредности на подгрупите. Оваа примена е позната како варијансна декомпозиција или закон за вкупна варијанса и има значајна улога во анализата на варијансата. На пример, да претпоставиме дека една група се состои од подгрупа од мажи еднаква со подгрупа на жени. Да претпоставиме дека мажите се високи по 180 и варијансата на висината е 100. Претпоставуваме дека жените се високи 160, а варијансата на нивната висина е 50. Тогаш средната варијаса изнесува (100 + 50) / 2 = 75; варијанса од средните вредности е варијанса од 180 и 160, што е еднакво на 100. Тогаш за вкупната група на мажи и жени, варијансата за висината е 75 + 100 = 175. Треба да се забележи и тоа дека за именител се употребува N наместо N - 1.

    Во поважен случај, ако подгрупите имаат нееднаква големина, тогаш мора да бидат пропорционални на нивната големина во сшоредба со средната вредност и варијансите. Форм улата исто така може да се применува и во случај кога има повеќе од две групи, па дури и ако гропирањето на променливите е непрекинато.[2]

    Оваа формула покажува дека варијансата на вкупната група не може да биде помала од средната вредност на варијансите на подгрупите. И покрај тоа, се забележува дека,вкупната варијанса не е поголема од варијансите на подгрупите. Во горниот пример, кога подгрупите се анализирани одвоено, варијансата е под влијание само на разликите меѓу мажите и жените. Ако двеет групи се комбинирани, тогаш и разликите меѓу мажите и жените се вклучуваат во варијансата.

  2. Многу дормули за пресметка на варијансата се базираат на следново равенство: Варијансата е еднаква на средната вредност на квадаратите минус квадратот од средината. На пример, ако се дадени броевите 1, 2, 3, 4, тогаш средината од квадратите е (1 × 1 + 2 × 2 + 3 × 3 + 4 × 4) / 4 = 7.5. Средната вредност е 2.5, па квадрат од средната вредност 6.25. Поради тоа tваријансата е 7.5 - 6.25 = 1.25, што всушност е истиот резултат добиен со претходно дефинираните формула. Многу дигитрони користат алгоритам, кој е базиран на оваа формула и овозможува да се пресмета варијансата додека податоците се запишани, без да се чуваат сите податоци во меморијата. Алгортамот служи за да се пресметаат само три променливи, кога е впишан ноовиот податок: Бројот на запишани податоци (n), збирот на вредностите (S) и збирот на квадрираните вредности (SS). На пример, ако податоците се 1, 2, 3, 4, тогаш по запишувањето на првата вредност, алгоритамот би дал n = 1, S = 1 и SS = 1. По запишувањето на втората вредност (2), би дал n = 2, S = 3 и SS = 5. Кога сите податоци би биле запишани, би се добило n = 4, S = 10 и SS = 30. Следно, среднаат вредност се пресметува како M = S / n и конечно варијансата е пресметана како SS / n - M × M. Во овој пример, таа изнесува 30 / 4 - 2.5 × 2.5 = 7.5 - 6.25 = 1.25. Ако се пресметува проценетата вредност, резултатот би бил помножен со n / (n - 1), што дава 1.667 во овој пример.

Главни својства[уреди]

Варијанса од збирот на коваријансни променливи (Биномна формула)[уреди]

Причина за примена на варијансата пред другите мерки на дисперзија е тоа дека варијансата од збирот (или разликата) на коваријансни случајни променливи е збирот од нивните варијанси:

\operatorname{Var}\Big(\sum_{i=1}^n X_i\Big) = \sum_{i=1}^n \operatorname{Var}(X_i).

Ова тврдење е наречено Бинајмова формула[1] и било откриено во 1853. Ова обуично се применува при посилни услови, кога променливите се независни, но коваријансно доволни. Па ако променливите имаат иста варијанса, σ2, тогаш, како што поделбата за n е линеарна трансформација, оваа формула веднаш влијае на тоа варијантата од нејзината средна вредност да е

\operatorname{Var}(\overline{X}) = \operatorname{Var}\left(\frac{1}{n}\sum_{i=1}^n X_i\right) = \frac{1}{n^2} \sum_{i=1}^n \operatorname{Var}\left(X_i\right) = \frac {1}{n^2} n \sigma^2 = \frac {\sigma^2} {n}.

Ова е намалување на варијансата од средната вредност со n. Ово податок се користи во дефинирањето на стандардната грешка од средната вредност, којашто се применува во теоремата за централно ограничување.

Варијанса од збир на коваријансни променливи[уреди]

Главно, ако променливите се коваријансни, тогаш варијансата од нејзиниот збир е збирот од нејзините коваријанси:

\operatorname{Var}\left(\sum_{i=1}^n X_i\right) = \sum_{i=1}^n \sum_{j=1}^n \operatorname{Cov}(X_i, X_j).

(Забелешка: Ова по дефиниција ја вклучува варијансата на секоја променлива, штом Cov(X,X)=Var(X).)

Овде Cov iе коваријансата, којашто е нула за независните случајни променливи (ако такви постојат). Формулата тврди дека варијансата од збирот е еднаква од збирот на сите елементи во коваријансната матрица. Оваа формула се применува во теоријата за Кронбаховата алфа во класичната тест-теорија.

Па, ако променливите имаат еднаква варијанса, σ2 и просечната корелација на променливите одделно е ρ, тогаш варијансата од нивната средна вредност е

\operatorname{Var}(\overline{X}) = \frac {\sigma^2} {n} + \frac {n-1} {n} \rho \sigma^2.

Ова покажува дека варијансата од средна вредност се зголемува со просекот од корелациите. Освен тоа, ако променливите имаат единечна варијанса, на пример ако се стандардизирани, тогаш ова се упростува во

\operatorname{Var}(\overline{X}) = \frac {1} {n} + \frac {n-1} {n} \rho.

Оваа формула се применува во Спирман-Брауновата теорија за предвидување formula во класичната тест-теорија. Ова конвергира до ρ ако n се стреми кон бесконечност, обезбедувајќи просечните корелации да ја надминат cконстантата или конвергентноста исто така. За варијансата на средната вредност на стандардизираните променливи со еднакви корелации или конвергиррачки просечни корелации имаме

 \lim_{n \to \infty} \operatorname{Var}(\overline{X}) = \rho.

Поради тгоа, варијансата од средната вредност од поголем број на стандардизирани променливи е отприлика еднаков на нивната просечна корелација. Со ова станува појасно дека едноставната средна вредност на корелациските променливи, главно не конвергира до средната вредност на популацијата, дури и законот за големи броеви потврдува дека едноставната средна вредност ќе конвергира за независни променливи.

= Варијанта од поголем збир на променливи[уреди]

Примените 6 и 8, со примена на коваријансата: Cov(aXbY) = ab Cov(XY) заеднички покажуват дека

\operatorname{Var}(aX+bY) =a^2 \operatorname{Var}(X) + b^2 \operatorname{Var}(Y) + 2ab\, \operatorname{Cov}(X, Y).

Ова покажува дека во голем збир на променливи, најголемата променлива ќе биде диспропорционално поголема во варијансата на вкупната големина. На пример, ако X и Y се коваријансни и X е два пати поголемо од Y, тогаш големината на варијансата за X ќе биде 4 пати поголема од варијансата на Y.

Декомпозиција на варијанса[уреди]

Главната формула за варијансната декомпозиција или законот за вкупната варијанса гласи: Ако X и Y се две случајни променливи и варијансата од X постои, тогаш

\operatorname{Var}(X) = \operatorname{Var}(\operatorname{E}(X|Y))+ \operatorname{E}(\operatorname{Var}(X|Y)).

Овде, E(X|Y) е условно очекување на X дадено за Y и Var(X|Y) е условена варијанса за X дадена заY. (Поинтуитивно објаснување е тоа дека ако едадена вредноста за Y, тогаш X следува по распределба со средна вредност E(X|Y) и варијанса Var(X|Y). Горната формула кажува како да се најде варијансата Var(X) базирана на распределбата на овие две вредности, кога Y варира.)Ова формула има честа примена во анализата на варијансата, каде соодветната формула е

SS_{\mbox{Total}} = SS_{\mbox{Between}} + SS_{\mbox{Within}}.

Таа, исто така се применува и во анализата на линеарна регресија, каде формулата е

SS_{\mbox{Total}} = SS_{\mbox{Regression}} + SS_{\mbox{Residual}}.

Ова може да се добие и од дотатокот на варијансите (примена 8), кога вкупниот (набљудуваниот) износ е збир од предвидениот износ и износот на грешката, каде последните две се коваријансни.

Формула за пресметување на варијансата[уреди]

Формулата за пресметување на варијансата следува во едноставна форма од линеарноста на очекуваните вредности и горнта дефиниција:

{}\operatorname{Var}(X)= \operatorname{E}(X^2 - 2\,X\,\operatorname{E}(X) + (\operatorname{E}(X))^2),
{}=\operatorname{E}(X^2) - 2(\operatorname{E}(X))^2 + (\operatorname{E}(X))^2,
{}=\operatorname{E}(X^2) - (\operatorname{E}(X))^2.

Ова често се применува за пресметување на варијансата во практиката иако е подлежно на губење на важност ако два составни дела од равенката се идентични по глемина.

Карактеристично својство[уреди]

Вториот момент на случајната променлива постигнува минимална вредност кога се зема околу првиот момент (т.е. средната вредност) на случајната променлива, т.е.\mathrm{argmin}_m\,\mathrm{E}((X - m)^2) = \mathrm{E}(X)\,. Во спротивно непрекинатата функција \varphi го задоволува условот \mathrm{argmin}_m\,\mathrm{E}(\varphi(X - m)) = \mathrm{E}(X)\, за сите случајни променливи за X, тогаш доаѓа до обликот \varphi(x) = a x^2 + b, кадеa > 0. Ова, исто така е случај во повеќедимензионалноста.[2]

Одредување на приближната вредност на варијансата од функцијата[уреди]

Делта методот во втор ред го користи Тејлоровиот ред за да се определи приближната вреднот на варијансата на функцијата од една или повеќе случајни променливи. На пример прибилижната вредност на варијансата на функцијата со една променлива е

\operatorname{Var}\left[f(X)\right]\approx \left(f'(\operatorname{E}\left[X\right])\right)^2\operatorname{Var}\left[X\right]

обезбедува дека f е два пати диферентабилно и дека средната вредност и варијансата на X се конечни.

Варијанса на популација и проста варијанса[уреди]

Главно, варијансата од популација на конечна популација со големинаN е

{}\sigma^2 = \frac 1N \sum_{i=1}^N
 \left(x_i - \overline{x} \right)^ 2 \,

или ако популацијата е апстрактна популација со распределба на веројатноста Pr:

{}\sigma^2 = \sum_{i=1}^N
 \left(x_i - \overline{x} \right)^ 2 \, \Pr(x_i),

каде \overline{x} е средна вредност на популацијата. Ова е освен другото посебен случај на главната дефиниција за варијансата наведена погоре, но ограничена на конечните популации.

Во многу практични ситуации, вистинската варијанса на популацијата е позната како a priori и мора некако да биде пресметана. Кога се работи со бесконечни популации, ова, е невозможно.

Ова е вообичаен метод за проценување на варијансата од големи (конечни и бсконечни) популации од примерок. Даден е статистичкиот примерок (y_1,\dots,y_n) за n вредности од популацијата и проценката на варијансата врз база на овој примерок. Има неколку добри пресметки. Две од нив се добро познати:

s_n^2 = \frac 1n \sum_{i=1}^n \left(y_i - \overline{y} \right)^ 2 = \left(\frac{1}{n} \sum_{i=1}^{n}y_i^2\right) - \overline{y}^2,

и

s^2 = \frac{1}{n-1} \sum_{i=1}^n\left(y_i - \overline{y} \right)^ 2 = \frac{1}{n-1}\sum_{i=1}^n y_i^2 - \frac{n}{n-1} \overline{y}^2,

И двете се познати како проста варијанса. Многу напредни електронски дигитрони може да ги пресметаат и sn2 и s2 со притискање на копче, во којшто случај копчето обично е означено со σ2 или σn2 за sn2 и σn-12 за s2.

Како што може да се забележи, двете пресметки се разликуваат многу малце една од друга и за поголема вредност на големината на примерокот n разликата е занемарлива. Вториот е склон пресметувач на популационата варијанса, што значи дека неговата очекувана вредност E[s^2] е еднаква со вистинската варијанса од слочајната променлива. Птрвото може да изгледа како варијанса од примерок како популација.


\begin{align}
\operatorname{E}(s^2) & = \operatorname{E}\left(\frac {\sum( X - \mu ) ^ 2}{n-1}\right) \\
& = \frac{1}{n-1} \operatorname{E}\left(\sum( X^2 -2X \mu + \mu^2)\right) \\
& = \frac{1}{n-1} \sum\left( \operatorname{E}(X^2) -\operatorname{E}(2X \mu) + \operatorname{E}(\mu^2)\right) \\
& = \frac{1}{n-1}\left( n\operatorname{E}(X^2) -2n\operatorname{E}(\mu^2) + n\operatorname{E}(\mu^2)\right) \\
& = \frac{n}{n-1}\left( s_n^2 + \mu^2 -\operatorname{E}(\mu^2)\right) \\
& = \frac{n}{n-1}\left( s_n^2 + \mu^2 -\operatorname{Var}(\mu)-\operatorname{E}(\mu)^2\right) \\
& = \frac{n}{n-1}\left( s_n^2  -\frac{1}{n^2}\operatorname{Var} \left(\sum X \right)\right) \\
& = \frac{n}{n-1}\left( s_n^2  -\frac{1}{n^2}ns_n^2\right) \\
& = s_n^2
\end{align}

Здарвиот разум препорачува да се применува поедноставната формула. Причината поради која тоа е склониот пресметувач е дека простата средина е неѓшто позатворена за набудувањето во однос на популационата средина. Ова е поради тоа што простата средина е дефинирана како средина на примерокот, додека популационата средина може да биде дури лажна надвор од примерокот. Така, девијациите, често ќе бидат помали од девијациите на популационата средина и ако истата формула се примене за двете, тогаш оваа проценка на варијансата ќе биде просек, нешто помал од оној во примерокот, отколку во популацијата.

Вообичаен извор на конфузија е терминот проста варијанса, кој може да се однесува и на склониот пресметувач, s^2 на популационата варијанса, или на варијансата s_n^2 од примерокот обработен како конечна популација. И двата може да бидат применети за проценување на вистинската вредност на популационата варијанса. Надвор од теоретските гледања, нема големо значење кој се применува. За маи големини и двата се препорачливи, а за големи вредности за n, тие се практично идентични. Пресметувањето на варијансата со делење соn наместо со n-1, симетрично ја потценува популационата варијанса. Освен тоа, во практичната примена, многу луѓе известуваат за стандардното отстапување, отколку за простата варијанса и стандардното отстапување се добива од склоната верзија n-1 на простата варијнса и има мала негативна склоност (за нормална распределба на примероците постои теорискиот интерес, но ретко применуван како скло пресметувач на стандардното отстапување). Сепак, во применетата статистика, има спогодба, според која, ако сите варијанси од стандардното отстапување се пресметани просто. Дефинирањето на стандардниот статистички тест, како Студентовиот Т-тест, се есто изразени во терминот на проценето стандардно отстапување, каде се претполага дека се работи според оваа спогодба.

Вопрактиката, за големо n, разликата често е мала. Во курс за статистички мерења, всушност не се ни појавува склоност нкон варијанса како оправдувањета за премног малата вредност. Во овој контекст [3] се зборува дека ако разликите мѓу n и n−1 секогаш имаат исто значење за читателот, но не е секогаш тоа најдобро. Во случај, кога немате нешто на ум - т.е. се обидува да се докаже прашалната хипотеза со маргиналниот податок

Распределба на простата варијанса[уреди]

При дадена функција на случајни променливи, простата варијанса е случајна променлива и е природно да се дознае за нејзината распределба. Во случај кога y_i се независни набљудувања од нормална распределба, Кохреновата теорема пкажува дека s^2 доведува до хи-квадратна распределба:


(n-1)\frac{s^2}{\sigma^2}\sim\chi^2_{n-1}.

Како директна последица на ова, следува дека  \operatorname{E}(s^2)=\sigma^2. И покрај тоа, дури и во отсуство на нормална претпоставка, сѐ уште е можно да се докаже дека s^2 is unbiased for \sigma^2.

Воопштувања[уреди]

Несклона проценка за очекуваната грешка во средината на А за примерот од податокот М со прост коефициент на склоност ρ. Кривата на log -½ линија за ρ=0 iе склона стандардна грешка.

Ако X е векторско-вредносна случајна променлива, со вредност во \mathbb{R}^n и се мисли на вектор со една колона, тогаш, природното воопштување на варијансата е \operatorname{E}((X - \mu)(X - \mu)^\operatorname{T}), каде \mu = \operatorname{E}(X) и X^\operatorname{T} е транспонирано од Xи се добива векктор со еден ред. Оваа варијанса е позитивна полуопределена квадратна матрица, обично нарекувана коваријансна матрица.

Ако X е комплексно- вредносна случјајна променлива, со вредност во \mathbb{C}, тогаш неговата варијанса е \operatorname{E}((X - \mu)(X - \mu)^*), каде X^* е конјугов комплексен број на X. Оваа варијанса е исто така полуопределена квадратна матрица.

Ако се дефинирани случајни променливи во n-димензионален континуум x, вкрстената коваријанса од променливите A[x] и B[x] како функција од n-димензионалното векторско разместување Δx може да се дефинира како σAB[Δx] ≡ 〈(A[x+Δx]-μA)(B[x]-μB)〉x. Овде популацијата (како разлика од примерок) просечно изнесува повеќе, а x е обележан со аглестите загради 〈 〉x или грчката буква μ.

Оваа количина е нречена второмоментна мерка на корелација, бидејќи тоа е воопштување на второмоментната статистичка варијанса, понекогаш се става во бездимензионален облик со нормализирање со популациското стандардно отстапување од A и B (на пр. σA≡Sqrt[σAA[0]]).. Ова резултира со корелациски коефициент ρAB[Δx] ≡ σAB[Δx]/(σAσB) којшто поприма вредност меѓу плус и минус еден. Кога A е идентично со B, претходниот израз ппоприма вредности за автоковаријансата, количина позната и во теоријата на растурање како корелациски пар (или Патерсонова) функција.

Ако е дефиниран простиот склон коефициент ρ како просек од автокорелацискиот коефициент ρAA[Δx] над сите парови во низата од M прости точки[4], склона проценка за очекуваната грешка во средината од A е квдаратен корен од: простата варијанса (земена како популација) помниожена со (1+(M-1)ρ)/((M-1)(1-ρ)). Кога ρ iе многу поголем од 1/(M-1), ова го намалува квадратниот корен од: простата варијанса (земена како ппопулација) помножена со ρ/(1-ρ). Кога |ρ| е многу пмало од 1/(M-1), ова поприма посоодветен израз за стандардна грешка, имено квдратен корен од: простата варијанса (земена како популација) над (M-1).

Историја[уреди]

Поимот варијанса бил воведен од страна на Роналд Фишер во неговиот напис од 1918, ансловен Корелацијата меѓу релативностите на претпоставката на Менделеевото наследтсво[5]:

Големото тело на достапната статистика ни покажува дека отстапувањата на човечките димензии од неговата средина е многу блиску со нормалнуиот закон за грешки и поради тоа дека променливоста може да биде be единствено мерена со стандардното отстапување, според квадратниот корен од средната квадратна грешка. Кога има две независни причини на променливите од создавањето на распределба на популациите во друг облик со стандардно отстапување \theta_1 and \theta_2, пронајдено е дека распределбата, кога двете причина настануваат заедно има стандардно отстапување \sqrt{\theta_1^2 + \theta_2^2}. Поради тоа, ппжелно е во анализирањето на причините на променливоста да се подели со tквадратот од стандардните отстапувања како мерка за променливост. Оваа количина ќе ја поимаме варијанса...

Момент на инерција[уреди]

Варијансата од распределба на веројатноста е аналогна на моментот на инерција во класичната механика на аналогната распределба на масата во линијата, со почит на ротацијата околу центарот на масата. Тоа е поради оваа аналогија, со која некои работи како варијанса се наречени моменти на распределба на веројатностите. Коваријансната матрица е поврзана со моментот на инерција за повеќеваријациските дистрибуции. Моментот на инерција од n-точки со коваријансна матрица од \Sigma е претставена со

I=n (\mathbf{1}_{3\times 3} \operatorname{tr}(\Sigma)  - \Sigma).

Оваа разлика меѓу моментот на инерција во физиката и во статистиката е јасна за точките кои се собрани околу линијата. Претпоставка е дека многу точки се блиску до x и се распоредени околу неа. Коваријансната матрица може да изгледа

\Sigma=\begin{bmatrix}10 & 0 & 0\\0 & 0.1 & 0 \\ 0 & 0 & 0.1\end{bmatrix}.

Тоа е најголемата варијанса во правец на x. И покрај тоа, физичарите сметаат дека ова има слаб момент околу x оската, па моментотна инерција е

I=n\begin{bmatrix}0.2 & 0 & 0\\0 & 10.1 & 0 \\ 0 & 0 & 10.1\end{bmatrix}.

Видете исто така[уреди]

Wiktionary-logo-en.svg
Поимот Варијанса во Викиречникот, слободниот речник.

Наводи[уреди]

  1. Michel Loeve, "Probability Theory", Graduate Texts in Mathematics, Volume 45, 4th edition, Springer-Verlaf, 1977, p. 12.
  2. A. Kagan and L. A. Shepp, "Why the variance?", Statistics and Probability Letters, Volume 38, Number 4, 1998, pp. 329–333. (online [1])
  3. Press, W. H., Teukolsky, S. A., Vetterling, W. T. & Flannery, B. P. (1986) Numerical recipes: The art of scientific computing. Cambridge: Cambridge University Press. (online)
  4. P. Fraundorf (1980) "Microcharacterization of interplanetary dust collected in the earth's stratosphere" (Ph.D. Dissertation in Physics, Washington University, Saint Louis MO), Appendix E
  5. Ronald Fisher (1918) The correlation between relatives on the supposition of Mendelian Inheritance

Надворешни врски[уреди]