мултиколинеарност фактори

Помислете за ситуация, в която изискването не е изпълнено второто условие, т.е. ранг по-ниска. Нарушаването на това условие е еквивалентно на това, че между колоните на матрицата на наблюдение има поне едно такова, че е линейна комбинация от останалите. Последица от това е невъзможността за прилагане на МНМК за получаване на оценки на коефициентите на регресия.

Разграничаване между абсолютното и частична (реален) мултиколинеарност. С абсолютна мултиколинеарност се отнася до ситуация, в която определящ фактор на матрицата на системата от нормални уравнения е нула, а в действителност не съществува възможност за получаване на уникален разтвор на тази система. Частичен мултиколинеарност предполага, че определящ фактор на матрицата не е точно равен на 0, но малко от тях е различен. инверсната матрица в този случай е налице, обаче, неговите елементи обикновено са изкривени изчислителна процедура, тъй като по реда на незначителни определящ фактор е равен на реда на изчислителни грешки се натрупват.

Наличието на мултиколинеарност може да бъде разбрано от някои външни характеристики на конструираната модел. По-специално това се отнася за случаите, когато някои оценки на коефициентите на регресия са погрешни от гледна точка на икономическите марка теория или абсолютни стойности на са прекалено големи. В допълнение, повечето от оценките, или дори на краищата, не са значителни в многовариантен модел, докато изграждането на двойката модели показва друго - всички фактори, са значителни. С други думи, проявлението на ефектите от мултиколинеарност прави дори адекватен модел неподходящи за практическо използване.

Съществуват няколко подхода, които елиминират последиците от мултиколинеарност. Нека разгледаме накратко всяка една от тях.

Първият подход се основава на изключването от модела на една от припокриващи фактори. Обикновено това се прави по следния начин. Изчислено матрица на двойки корелационни коефициенти са определени и са тясно свързани един с други фактори на нейните елементи. От всяка двойка от такива фактори се отстранява един чиято плътност корелация с зависимата променлива долу. Този подход е ефективно, в смисъл, че позволява, като правило, се елиминира мултиколинеарност ефекти. Въпреки това, учените не винаги могат да организират такъв подход, като изключение от модела, някои фактори не могат да постигнат тази цел - изследването на индекса за връзка с този набор от фактори.

Вторият подход е едва ли споменато в научната литература. Той използва концепцията за pseudoinverse. В някои ситуации, когато детерминанта е равно на нула, използването на псевдо-процедура осигурява оценки на коефициентите на регресия, които, въпреки дегенерацията на матрицата на нормални уравнения, единственото решение на тази система. Уникалността на разтворите, предоставена от факта, че процедурата по псевдо води до разтвор с минимална норма, т.е. сред всички решения на система дегенерат на нормални уравнения е избран този, който има най-малката сума от квадрати. Това е интересен подход, но това не е добре проучен.

Третият подход използва основните компоненти. Възможност за използване на основен компонент за целите на премахване на ефекта от мултиколинеарност се обяснява по следния начин. Тъй мултиколинеарност свързани с висока степен на корелация между фактор променливи, има естествена желание да се замени оригиналните ортогонални фактори са променливи, които са линейни комбинации на оригинала. Както в коефициентите на тези линейни комбинации са компонентите на собствените вектори на ковариация матрица на оригиналните променливи. Собствени вектори са взаимно перпендикулярни и затова изграждането на модел на регресия е опростена.

При използване на основните компоненти са два възможни случаи. Първият се отнася до абсолютната мултиколинеарност, а вторият - с частично. В случай, че абсолютната мултиколинеарност, най-малко една собствена стойност, равна на нула, и автоматично броя на основните компоненти е по-малко от броя на първоначалните променливи. Регресия се основава на основните компоненти, и след това обратната трансформация обратно до първоначалните променливи.

В случай на частична брой мултиколинеарност главен компонент съвпада с номера на оригинални променливи. Ако след изграждането на регресия на всички основни компоненти на обратната трансформация обратно към първоначални наблюдения, всички неблагоприятни последици от мултиколинеарност запазват. Ето защо, по смисъла на този метод е, че регресията не се основава на всички основни компоненти, но само някои от тях, което е характерно за по-голямата част от промяната на първоначалните данни. След това се върнете към първоначалните променливи може да доведе до по-модел без изкривявания, генерирани от мултиколинеарност.

Четвъртият подход се реализира идеята за получаване на пристрастни оценки са в сравнение с оли оценява на средната квадратична грешка. Най-често се използва за изготвянето на такива прогнози процедура билото оценка или процедура за изграждането на така наречения гребен регресия. При тази процедура, на базата на идеята за намиране параметър семейни рейтингите използване коригираната OLS формула

където (обикновено).

Добавянето на диагоналните елементи на матрицата на нормални уравнения на единица матрица, умножена по параметъра. Това прави, получена чрез тази оценка формула на регресионни коефициенти, от една страна, офсет, а другият - стандартната грешка на тези оценки са намалени, тъй като "лош", причинени от матрицата се превръща в "добро" е причинило. Реализацията на този метод е лесно осъществим и оценки, получени с подходящ избор на параметъра имат желания надеждността.