Корисник:MartinMitrovski

Од Википедија — слободната енциклопедија

Регресиона анализа[уреди | уреди извор]

Регресионата анализа е збир од повеќе статистички методи со кои се открива дали постои врска помеѓу набљудуваните појави и од каков вид е таа. Има широка примена но најмногу се применува во економијата и општествените науки. Зборот регресија доаѓа од латинскиот збор regressio што значи опаѓање, враќање, отстапување. Прв овој термин го употребил англискиот научник Галтон во XIX век додека ги истражувал наследните карактеристики на децата во однос на нивните родители. Заклучокот од ова истражување е дека синовите на екстремно високите татковци ја немаат нивната висина односно покажуваат назадување (регресија).

Функционална и стохастичка зависност[уреди | уреди извор]

Целта на истражувањето во регресионата анализа е основната маса (популацијата), додека истражувањата се вршат на примерок земен од популацијата. При мерење на повеќе обележја се попставува прашањето како тие зависат една од друга. Промената на еден белег од популацијата често влијае на промена на други белези поради меѓусебна поврзаност (зависност). Поврзаноста може да биде силна односно функционална или послаба односно стохастичка. Функционалната зависност претпоставува дека за секоја вредност на една појава (како независна променлива) може да се утврди вредноста на другата појава (како зависна променлива). Додека кај стохастичката зависност за определена вредност на една појава може да се јават повеќе различни вредности за другата појава. Појавите во статистиката се нарекуваат променливи. Променливата која е предмет на истражување се нарекува зависна променлива и се означува со Y и таа е случајна променлива, додека променливата која може да се контролира и која влијае на промените на зависната променлива се нарекува независна променлива X и во општ случај може да ги има повеќе од една. Во економијата скоро и да не постојат појави со функционална зависност, односно најчесто помеѓу појавите се јавува стохастичка зависност.

Регресионен модел[уреди | уреди извор]

Одредувањето на зависноста на променливата Y од независната променлива X е преку формирање на математички модел кој ќе ја изразува таа зависност. Бидејќи во реалните ситуации на зависност често влијаат некој случајни фактори (на пр. грешки при мерења) треба и тие да бидат земени во предвид при формирање на моделот на праволиниска регресија. Математичкиот израз на моделот е: Yi = β0 + β1x1 + εi i = 1,2,…,n

регресиона линија

За истражување на меѓусебната поврзаност на две појави се употребуваат моделите на проста (праволиниска и криволиниска) регресиона и корелациона анализа, а за повеќе појави методите на повеќекратна (праволиниска и криволиниска) регресиона и корелациона анализа.

Проста праволиниска регресија[уреди | уреди извор]

Се набљудуваат две појави помеѓу кои постои праволиниска зависност. Зависната променлива (појава) ја бележиме со Y, додека независната променлива (појава) ја бележиме со X.

Метод на најмали квадрати[уреди | уреди извор]

Како последица на стохастичката врска меѓу појавите, се појавуваат отстапувања на точките од правата. Можно решение – да се повлече линија која е поблиска до сите емпириски податоци – линија на регресија. За оценување на непознатите параметри го користиме методот на најмали квадрати кој се заосновува на минимизирање на квадратните отстапувања на сите емприски точки од линијата на регерсија. Идејата на методот на најмали квадрати е да ја одбере онаа линија која има најмала сума (збир) на квадрати на вертикалните отстапувања.

Претпоставки[уреди | уреди извор]

  • Линеарност – Помеѓу X и Y постои линеарна (праволиниска) врска.
  • Независната променлива X не е случајна променлива.
  • Случајната грешка или стохастичкиот член во просек е еднаква на нула Е(e)=0.
  • Хомоскедастичност Сите случајни грешки имаат еднакви варијанси.
  • Нема автокорелација помеѓу случајните грешки.
  • Случајната грешка ei има нормален распоред со средина 0 и варијанса σ2.

Мерки на репрезентативноста на линијата на регресија[уреди | уреди извор]

Во статистичката теорија и практика се користат две мерки на репрезентативност, првата е апсолутна мерка на отстапувањата на емпириските точки и се нарекува стандардна грешка на регресијата, а втората е коефициент на детерминација и се користи како релативен показател. Стандардна грешка на регресијата претставува оцена на стандардната девијација на случајната грешка.

Наводи[уреди | уреди извор]

  1. Славе Ристески, Драган Тевдовски,Статистика за бизнис и економија,Скопје 2010
  2. Draper, Norman R. und Smith Harry: Applied Regression Analysis. Wiley, New York 1998
  3. Vaughan, Liwen, Statistical Methods for the Information Professional: A Practical, Painless Approach to Understanding, Using, and Interpreting Statistics, Information Today, May 2001, Preface xvii, ISBN 978-1-57387-110-5
  4. Graham, Alan, Statistics, Teach Yourself, October 1994, ISBN 978-0-8442-3684-1
  5. Kohler, Heinz, Statistics for Business and Economics, South-Western College Pub, 27 декември 2001, ISBN 978-0-03-033981-3