Multikolinearitātes klātbūtnes noteikšana. Multikolinearitātes definīcija Multikolinearitātes teorētiskās sekas vispārīgos jēdzienos

Konstruējot daudzkārtējas regresijas vienādojumu, var rasties faktoru multikolinearitātes problēma. Daudzkolinearitāte ir lineāra sakarība starp diviem vai vairākiem skaidrojošiem mainīgajiem, kas var izpausties funkcionālā (eksplicītā) vai stohastiskā (latentā) formā.
Sakarības noteikšana starp izvēlētajām pazīmēm un sakarības ciešuma kvantitatīvs novērtējums tiek veikta, izmantojot korelācijas analīzes metodes. Lai atrisinātu šīs problēmas, vispirms tiek novērtēts , pēc tam, pamatojoties uz to, tiek noteikti daļējās un daudzkārtējās korelācijas un determinācijas koeficienti un pārbaudīta to nozīme. Korelācijas analīzes galvenais mērķis ir faktoru raksturlielumu x 1, x 2,…, x m atlase turpmākai regresijas vienādojuma konstruēšanai.

Ja faktoru mainīgie ir saistīti ar stingru funkcionālu atkarību, tad mēs runājam par pilnīga multikolinearitāte. Šajā gadījumā starp faktoru mainīgo matricas kolonnām X ir lineāri atkarīgas kolonnas, un pēc matricas determinantu īpašībām det(X T X) = 0, t.i., matrica (X T X) ir vienskaitlī, kas nozīmē, ka apgrieztās matricas nav. Matrica (X T X) -1 tiek izmantota, veidojot OLS aprēķinus. Tādējādi pilnīga multikolinearitāte neļauj mums viennozīmīgi novērtēt sākotnējā regresijas modeļa parametrus.

Pie kādām grūtībām rada modelī iekļauto faktoru multikolinearitāte un kā tās atrisināt?

Daudzkolinearitāte var izraisīt nevēlamas sekas:

  1. parametru aplēses kļūst neuzticamas. Viņi atrod lielas standarta kļūdas. Mainoties novērojumu apjomam, mainās aplēses (ne tikai pēc lieluma, bet arī pēc zīmes), kas padara modeli nederīgu analīzei un prognozēšanai.
  2. kļūst grūti interpretēt vairākus regresijas parametrus kā faktoru darbības raksturlielumus “tīrā” formā, jo faktori ir korelēti; lineārās regresijas parametri zaudē ekonomisko nozīmi;
  3. Kļūst neiespējami noteikt atsevišķu faktoru ietekmi uz darbības rādītāju.

Tiek saukts multikolinearitātes veids, kurā faktoru mainīgie ir saistīti ar kādu stohastisku atkarību daļēja. Ja starp faktoru mainīgajiem ir augsta korelācijas pakāpe, tad matrica (X T X) ir tuvu deģenerācijai, t.i., det(X T X) ≈ 0.
Matrica (X T X) -1 būs slikti kondicionēta, kas novedīs pie OLS aprēķinu nestabilitātes. Daļēja multikolinearitāte rada šādas sekas:

  • parametru novērtējumu dispersiju palielināšanās paplašina intervāla novērtējumus un pasliktina to precizitāti;
  • samazināt t-koeficientu statistika liek izdarīt nepareizus secinājumus par faktoru nozīmīgumu;
  • OLS aprēķinu nestabilitāte un to novirzes.

Nav precīzu kvantitatīvu kritēriju daļējas multikolinearitātes noteikšanai. Multikolinearitātes esamību var norādīt ar matricas determinanta (X T X) tuvumu nullei. Tiek apskatītas arī pāru korelācijas koeficientu vērtības. Ja interfaktoru korelācijas matricas determinants ir tuvu vienam, tad nav daudzkolinearitātes.

Pastāv dažādas pieejas, lai pārvarētu spēcīgu starpfaktoru korelāciju. Vienkāršākais no tiem ir par multikolinearitāti visvairāk atbildīgā faktora (vai faktoru) izslēgšana no modeļa ar nosacījumu, ka modeļa kvalitāte cietīs nenozīmīgi (proti, teorētiskais determinācijas koeficients -R 2 y(x1...xm). ) samazināsies nenozīmīgi) .

Kādu pasākumu nevar izmantot, lai novērstu multikolinearitāti?
a) palielināt izlases lielumu;
b) izslēdzot mainīgos lielumus, kas ir cieši saistīti ar citiem;
c) modeļa specifikācijas izmaiņas;
d) nejaušās komponentes transformācija.

Pāru (lineārās) un daļējās korelācijas koeficienti

Savienojuma ciešums, piemēram, starp mainīgajiem x un y vērtību paraugam (x i, y i), i=1,n, (1)
kur x un y ir vidējās vērtības, S x un S y ir atbilstošo paraugu standartnovirzes.

Pāru korelācijas koeficients svārstās no –1 līdz +1. Jo tuvāk tā absolūtajā vērtībā ir vienotībai, jo tuvāk statistiskā sakarība starp x un y ir lineārai funkcionālai. Pozitīva koeficienta vērtība norāda, ka saistība starp raksturlielumiem ir tieša (palielinoties x, palielinās y vērtība), negatīva vērtība norāda, ka sakarība ir apgriezta (x pieaugot, y vērtība samazinās).
Mēs varam sniegt šādu korelācijas koeficienta iespējamo vērtību kvalitatīvo interpretāciju: ja |r|<0.3 – связь практически отсутствует; 0.3≤ |r| < 0.7 - связь средняя; 0.7≤ |r| < 0.9 – связь сильная; 0.9≤ |r| < 0.99 – связь весьма сильная.
Lai novērtētu faktoru multikolinearitāti, izmantojiet atkarīgās (rezultatīvās) pazīmes y sapāroto korelācijas koeficientu matricu ar faktoru raksturlielumiem x 1, x 2,…, x m, kas ļauj novērtēt katra faktora rādītāja x j ietekmes pakāpi uz atkarīgo mainīgo y, kā arī attiecību ciešumu starp faktoriem . Korelācijas matricai vispārējā gadījumā ir forma
.
Matrica ir simetriska, tās diagonālē ir tādas. Ja matricai ir interfaktoru korelācijas koeficients r xjxi >0,7, tad šajā daudzkārtējās regresijas modelī pastāv multikolinearitāte.
Tā kā avota dati, no kuriem tiek noteikta raksturlielumu attiecība, ir paraugs no noteiktas vispārējās kopas, korelācijas koeficienti, kas aprēķināti no šiem datiem, būs selektīvi, t.i., tie tikai novērtē saistību. Nepieciešams nozīmīguma tests, kas atbild uz jautājumu: vai iegūtie aprēķinu rezultāti ir nejauši vai nē?
Pāru korelācijas koeficientu nozīme pārbaudīt līdz t- Studentu t tests. Tiek izvirzīta hipotēze, ka vispārējais korelācijas koeficients ir vienāds ar nulli: H 0: ρ = 0. Pēc tam tiek uzstādīti parametri: nozīmīguma līmenis α un brīvības pakāpju skaits v = n-2. Izmantojot šos parametrus, no Studenta sadalījuma kritisko punktu tabulas tiek atrasts tcr un no pieejamajiem datiem aprēķināts novērotā kritērija vērtība:
, (2)
kur r ir pāru korelācijas koeficients, kas aprēķināts no pētījumam atlasītajiem datiem. Pāru korelācijas koeficients tiek uzskatīts par nozīmīgu (hipotēze, ka koeficients ir vienāds ar nulli, tiek noraidīta) ar ticamības varbūtību γ = 1- α, ja t Obs modulo ir lielāks par t crit.
Ja mainīgie ir savstarpēji korelēti, tad korelācijas koeficienta vērtību daļēji ietekmē citu mainīgo ietekme.

Daļējās korelācijas koeficients raksturo lineārās attiecības tuvumu starp rezultātu un atbilstošo faktoru, novēršot citu faktoru ietekmi. Daļējās korelācijas koeficients novērtē divu mainīgo attiecību ciešumu ar citu faktoru fiksētu vērtību. Ja to aprēķina, piemēram, r yx 1| x2 (daļējās korelācijas koeficients starp y un x 1 ar fiksētu ietekmi x 2), tas nozīmē, ka tiek noteikts kvantitatīvais mērs lineārajai attiecībai starp y un x 1, kas notiks, ja x 2 ietekme uz šiem raksturlielumiem ir likvidēta. Ja tiek izslēgta tikai viena faktora ietekme, mēs iegūstam daļējas pirmās kārtas korelācijas koeficients.
Pāru un daļējās korelācijas koeficientu vērtību salīdzinājums parāda fiksētā faktora ietekmes virzienu. Ja daļējās korelācijas koeficients r yx 1| x2 būs mazāks par atbilstošo pāra koeficientu r yx 1, kas nozīmē, ka sakarību starp raksturlielumiem y un x 1 zināmā mērā nosaka fiksētā mainīgā x 2 ietekme uz tiem. Un otrādi, lielāka daļējā koeficienta vērtība, salīdzinot ar pāra koeficientu, norāda, ka fiksētais mainīgais x 2 ar savu ietekmi vājina attiecību starp y un x 1.
Daļējās korelācijas koeficientu starp diviem mainīgajiem (y un x 2), izslēdzot viena faktora ietekmi (x 1), var aprēķināt, izmantojot šādu formulu:
. (3)
Citiem mainīgajiem lielumiem formulas tiek veidotas līdzīgā veidā. Pie fiksēta x 2
;
pie fiksēta x 3
.
Daļējās korelācijas koeficientu nozīmīgums tiek pārbaudīts līdzīgi kā pāru korelācijas koeficientu gadījumā. Vienīgā atšķirība ir brīvības pakāpju skaits, kas jāpieņem vienāds ar v = n – l -2, kur l ir fiksēto faktoru skaits.

Pakāpeniska regresija

Daudzkārtējas regresijas modelī iekļauto faktoru x 1 , x 2 , …, x m atlase ir viens no svarīgākajiem ekonometriskās modelēšanas posmiem. Faktoru secīgas (soli pa solim) iekļaušanas (vai izslēgšanas) metode modelī ļauj no iespējamās mainīgo kopas atlasīt tieši tos, kas uzlabos modeļa kvalitāti.
Ieviešot metodi, pirmais solis ir aprēķināt korelācijas matricu. Pamatojoties uz pāru korelācijas koeficientiem, tiek atklāta kolineāro faktoru klātbūtne. Faktori x i un x j tiek uzskatīti par kolineāriem, ja r xjxi >0,7. Modelī ir iekļauts tikai viens no savstarpēji saistītiem faktoriem. Ja starp faktoriem nav kolineāru faktoru, tad jebkuri faktori, kas būtiski ietekmē y.

Otrajā solī tiek izveidots regresijas vienādojums ar vienu mainīgo, kuram ir maksimālā absolūtā vērtība pāru korelācijas koeficientam ar iegūto atribūtu.

Trešajā solī modelī tiek ievadīts jauns mainīgais, kuram ir lielākā daļējās korelācijas koeficienta absolūtā vērtība ar atkarīgo mainīgo ar fiksētu iepriekš ieviestā mainīgā ietekmi.
Kad modelī tiek ieviests papildu faktors, determinācijas koeficientam jāpalielinās un atlikušajai dispersijai jāsamazinās. Ja tas nenotiek, t.i., daudzkārtējās noteikšanas koeficients nedaudz palielinās, tad jauna faktora ieviešana tiek uzskatīta par nepiemērotu.

Piemērs Nr.1. 20 uzņēmumiem reģionā izlaides atkarība uz vienu darbinieku y (tūkst. rubļu) no augsti kvalificētu darbinieku īpatsvara kopējā strādnieku skaitā x1 (% no aktīvu vērtības gada beigās) un nodošanas ekspluatācijā. tiek pētīts jauno pamatlīdzekļu skaits x2 (%).

Y X1 X2
6 10 3,5
6 12 3,6
7 15 3,9
7 17 4,1
7 18 4,2
8 19 4,5
8 19 5,3
9 20 5,3
9 20 5,6
10 21 6
10 21 6,3
11 22 6,4
11 23 7
12 25 7,5
12 28 7,9
13 30 8,2
13 31 8,4
14 31 8,6
14 35 9,5
15 36 10

Nepieciešams:

  1. Izveidojiet korelācijas lauku starp izlaidi uz vienu darbinieku un augsti kvalificētu darbinieku īpatsvaru. Izvirziet hipotēzi par rādītāju X1 un Y ciešumu un saistību veidu.
  2. Novērtējiet lineārās attiecības tuvumu starp izlaidi uz vienu darbinieku un augsti kvalificētu darbinieku īpatsvaru ar ticamību 0,9.
  3. Aprēķināt lineārās regresijas vienādojuma koeficientus izlaides uz vienu darbinieku atkarībai no augsti kvalificētu darbinieku īpatsvara.
  4. Pārbaudiet regresijas vienādojuma parametru statistisko nozīmīgumu ar ticamību 0,9 un konstruējiet tiem ticamības intervālus.
  5. Aprēķināt determinācijas koeficientu. Izmantojot Fišera F testu, novērtējiet regresijas vienādojuma statistisko nozīmīgumu ar ticamību 0,9.
  6. Sniedziet punktu un intervālu prognozi ar ticamību 0,9 izlaides uz vienu darbinieku uzņēmumam, kurā 24% darbinieku ir augsti kvalificēti.
  7. Aprēķināt lineārās daudzkārtējās regresijas vienādojuma koeficientus un izskaidrot tā parametru ekonomisko nozīmi.
  8. Analizējiet vairāku vienādojumu koeficientu statistisko nozīmīgumu ar ticamību 0,9 un konstruējiet tiem ticamības intervālus.
  9. Atrodiet pāru un daļējās korelācijas koeficientus. Analizējiet tos.
  10. Atrodiet koriģēto daudzkārtējās noteikšanas koeficientu. Salīdziniet to ar nekoriģēto (kopējo) determinācijas koeficientu.
  11. Izmantojot Fišera F testu, novērtējiet regresijas vienādojuma atbilstību ar ticamību 0,9.
  12. Sniedziet punktu un intervālu prognozi ar ticamību 0,9 izlaidi uz vienu darbinieku uzņēmumam, kurā 24% darbinieku ir augsti kvalificēti un jaunu pamatlīdzekļu nodošana ekspluatācijā ir 5%.
  13. Pārbaudiet izveidoto vienādojumu multikolinearitātes esamībai, izmantojot: Stjudenta testu; χ2 tests. Salīdziniet rezultātus.

Risinājums Mēs to darām, izmantojot kalkulatoru. Tālāk ir sniegta 13.punkta risinājuma virzība.
Pāru korelācijas koeficientu R matrica:

- yx 1x 2
y 1 0.97 0.991
x 1 0.97 1 0.977
x 2 0.991 0.977 1

Multikolinearitātes klātbūtnē korelācijas matricas determinants ir tuvu nullei. Mūsu piemēram: det = 0,00081158, kas norāda uz spēcīgas multikolinearitātes klātbūtni.
Lai izvēlētos nozīmīgākos faktorus x i, tiek ņemti vērā šādi nosacījumi:
- savienojumam starp rezultējošo raksturlielumu un faktoru viens ir jābūt augstākam par interfaktora savienojumu;
- faktoru attiecībai nevajadzētu būt lielākai par 0,7. Ja matricai ir interfaktoru korelācijas koeficients r xjxi > 0,7, tad šajā daudzkārtējās regresijas modelī pastāv multikolinearitāte.;
- ar augstu raksturlieluma starpfaktoru savienojumu tiek atlasīti faktori ar zemāku korelācijas koeficientu starp tiem.
Mūsu gadījumā r x 1 x 2 ir |r|>0,7, kas norāda uz faktoru multikolinearitāti un nepieciešamību kādu no tiem izslēgt no turpmākās analīzes.
Šīs matricas pirmās rindas analīze ļauj atlasīt faktoru raksturlielumus, kurus var iekļaut daudzkārtējās korelācijas modelī. Faktoru raksturlielumi, kuriem |r yxi | 0,3 – praktiski nav savienojuma; 0,3 ≤ |r| ≤ 0,7 - vidējais savienojums; 0,7 ≤ |r| ≤ 0,9 – spēcīgs savienojums; |r| > 0,9 – savienojums ir ļoti spēcīgs.
Pārbaudīsim iegūto pāru korelācijas koeficientu nozīmīgumu, izmantojot Stjudenta t-testu. Koeficientus, kuriem t-statistikas moduļa vērtības ir lielākas par atrasto kritisko vērtību, uzskata par nozīmīgiem.
Aprēķināsim r yx 1 novērotās t-statistikas vērtības, izmantojot formulu:

kur m = 1 ir faktoru skaits regresijas vienādojumā.

Izmantojot Studentu tabulu, mēs atrodam Ttable
t crit (n-m-1; α/2) = (18; 0,025) = 2,101
Tā kā t obs > t crit, mēs noraidām hipotēzi, ka korelācijas koeficients ir vienāds ar 0. Citiem vārdiem sakot, korelācijas koeficients ir statistiski nozīmīgs
Aprēķināsim r yx 2 novērotās t-statistikas vērtības, izmantojot formulu:

Tā kā t obs > t crit, mēs noraidām hipotēzi, ka korelācijas koeficients ir vienāds ar 0. Citiem vārdiem sakot, korelācijas koeficients ir statistiski nozīmīgs
Tādējādi saistība starp (y un x x 1), (y un x x 2) ir nozīmīga.
Faktoram x2 (r = 0,99) ir vislielākā ietekme uz efektīvo atribūtu, kas nozīmē, ka, veidojot modeli, tas pirmais ieies regresijas vienādojumā.
Multikolinearitātes pārbaude un novēršana.
Vispilnīgākais daudzkolinearitātes izpētes algoritms ir Farāra-Globera algoritms. Tas pārbauda trīs multikolinearitātes veidus:
1. Visi faktori (χ 2 - hī kvadrāts).
2. Katrs faktors ar citiem (Fišera kritērijs).
3. Katrs faktoru pāris (Studenta t-tests).
Pārbaudīsim mainīgo daudzkolinearitāti, izmantojot Farrara-Glouber metodi, izmantojot pirmā veida statistikas kritērijus (hī kvadrāta testu).
Formula Farrar-Glouber statistikas vērtības aprēķināšanai ir šāda:
χ 2 = -ln(det[R])
kur m = 2 ir faktoru skaits, n = 20 ir novērojumu skaits, det[R] ir pāru korelācijas koeficientu R matricas determinants.
Mēs to salīdzinām ar tabulas vērtību pie v = m/2(m-1) = 1 brīvības pakāpes un nozīmīguma līmeņa α. Ja χ 2 > χ tabula 2, tad faktoru vektorā ir daudzkolinearitāte.
χ 2. tabula (1;0,05) = 3,84146
Pārbaudīsim mainīgo multikolinearitāti, izmantojot otrā veida statistikas kritērijus (Fišera testu).

Pārbaudīsim mainīgo multikolinearitāti, izmantojot trešā veida statistikas kritērijus (Studenta tests). Lai to izdarītu, mēs atradīsim daļējas korelācijas koeficientus.
Daļējās korelācijas koeficienti.
Daļējās korelācijas koeficients atšķiras no vienkāršā lineārā pāra korelācijas koeficienta ar to, ka mēra atbilstošo raksturlielumu (y un x i) pāru korelāciju, ja tiek novērsta citu faktoru (x j) ietekme uz tiem.
Pamatojoties uz daļējiem koeficientiem, varam secināt, ka mainīgo lielumu iekļaušana regresijas modelī ir pamatota. Ja koeficienta vērtība ir maza vai nenozīmīga, tas nozīmē, ka saistība starp šo faktoru un iznākuma mainīgo ir vai nu ļoti vāja, vai arī tās vispār nav, tāpēc faktoru var izslēgt no modeļa.


Sakaru blīvums ir zems.
Noteiksim korelācijas koeficienta r ​​yx 1 / x 2 nozīmīgumu. Kā redzam, saikne starp y un x 2, ja modelī ir iekļauts x 1, ir samazinājies. No tā mēs varam secināt, ka x 2 ievadīšana regresijas vienādojumā joprojām ir nepiemērota.
Varam secināt, ka, veidojot regresijas vienādojumu, jāizvēlas faktori x 1, x 2.

Piemērs Nr.2. 30 novērojumiem pāru korelācijas koeficientu matrica izrādījās šāda:

yx 1x 2x 3
y1,0
x 10,30 1,0
x 20,60 0,10 1,0
x 30,40 0,15 0,80 1,0
Novērtējiet faktoru multikolinearitāti. Izveidojiet regresijas vienādojumu standarta skalā un izdariet secinājumus.
  • 4. PLR parametru statistiskais novērtējums, izmantojot mazāko kvadrātu metodi. Mazāko kvadrātu aplēšu īpašības
  • Mazāko kvadrātu aprēķinu īpašības:
  • 5. Daudzkārtējas lineārās regresijas kvalitātes pārbaude: parametru nozīme, ticamības intervāli, modeļa atbilstība. Prognozēšana.
  • 6. Daudzkārtēja lineārā regresija (MLR). Klasiski pieņēmumi. Modeļa parametru OLS novērtējums.
  • 7. Daudzkārtējas lineārās regresijas OLS aplēšu īpašības. Gausa-Markova teorēma.
  • 8. Daudzkārtējas lineārās regresijas kvalitātes pārbaude: parametru nozīme, ticamības intervāli, modeļa atbilstība. Prognozēšana.
  • 5. Koeficients Noteikumi
  • Prognozēšana, izmantojot vairākkārtējas lineārās regresijas modeli
  • 9. Ekonometriskā modeļa specifikācija: metodes un diagnostika eksogēno mainīgo atlasei. Remzija un Amemijas testi.
  • Remzija kritērijs:
  • 10. Ekonometriskā modeļa specifikācija: nelineārā modeļa atkarības formas izvēle
  • Specifikācijas principi
  • 11. Multikolinearitātes problēma. Multikolinearitātes klātbūtnes un diagnozes sekas.
  • Multikolinearitātes diagnostikas metodes:
  • 12. Multikolinearitātes novēršanas metodes. Galvenās sastāvdaļas metode. Ridge regresija.
  • 13. Modeļa heteroskedastiskuma problēmas. Tās diagnozes kritēriji.
  • 1. Parka kritērijs.
  • 2. Goldfelda-Kvanta kritērijs.
  • 3. Breusch-Pagan kritērijs.
  • 4. Baltais kritērijs.
  • 14. Vispārinātie mazākie kvadrāti (oms). MLR aprēķinu īpašības omnk. Svērto mazāko kvadrātu metode modeļa parametru novērtēšanas uzdevumā. Aprēķinu īpašības, izmantojot svērtos mazākos kvadrātus.
  • 15. jautājums. Modeļa atlieku autokorelācijas problēma. Autokorelācijas ietekme, izmantojot modeli.
  • Atlikumu autokorelācijas iemesli
  • Autokorelācijas sekas:
  • 16. Durbina-Vatsona autokorelācijas diagnostikas kritērijs
  • 17.Autokorelācijas novēršanas metodes. Cochrane-Orcutt un Hildreth-Lou punktu skaitīšanas procedūras
  • 18. Modeļi ar sadalītām nobīdēm: nobīdes struktūra saskaņā ar Koik: īpaši gadījumi (modelis ar nepilnīgu pielāgošanu un adaptīvām cerībām)
  • 19 Modeļi ar sadalītām nobīdēm: lagu lineāri aritmētiskā struktūra un lagu polinoma struktūra saskaņā ar Almonu
  • 20. h-Durbina tests un vairākkārtējs Lagranža tests autokorelācijas pārbaudei nobīdes modeļos
  • 21. Laika rindas (laika) jēdziens. VR modelis, VR analīzes galvenie uzdevumi. Laika izlīdzināšanas metodes (slīdošais vidējais, eksponenciālā izlīdzināšana, secīgas atšķirības)
  • 22 Laika rindas stacionaritāte (laiks). Temperatūras līmeņu korelācijas raksturojums.
  • 23 Stacionārie laikrindu modeļi: autoregresija, mainīgais vidējais, arsk
  • 24.Nestacionārs rašanās modelis. Modeļa parametru novērtēšana.
  • 28. Laika rindu prognozēšana. Prognožu precizitātes rādītāji.
  • 30. Čau tests, lai diagnosticētu fiktīvu mainīgo iekļaušanu ekonometriskajā modelī.
  • 32. Vienlaicīgo ekonometrisko vienādojumu sistēmas (SOE). Sistēmas strukturālā un reducētā forma (grafiskais un matricas attēlojums).
  • 33. Vienlaicīgo vienādojumu sistēmu (SOE) identifikācijas problēmas. Sojas vienādojumu identificējamība (kārtas un ranga kritēriji)
  • 34. Vienlaicīgu vienādojumu sistēmu novērtēšanas metodes: netiešo mazāko kvadrātu metode, divpakāpju mazāko kvadrātu metode. Novērtējumu pielietojamība un īpašības
  • 35.Ekonometrijas pašreizējais stāvoklis. Lielo ekonometrisko modeļu piemēri
  • 11. Multikolinearitātes problēma. Multikolinearitātes klātbūtnes un diagnozes sekas.

    Ja ir pieejama eksogēno mainīgo lineārās attiecības , piemēram, tad OLS aplēses nepastāvēs, jo nav matricas apgrieztās vērtības, kas būtu vienskaitlī. Šo situāciju ekonometrikā sauc par problēmu daudzkolinearitāte.

    Daudzkolinearitātes iemesli:

    nepareiza modeļa specifikācija

    neuzmanīga statistikas datu vākšana (atkārtotu novērojumu izmantošana).

    Atšķirt nepārprotami Un netieši daudzkolinearitāte.

    Skaidrs - zināms precīza lineāra sakarība starp modeļa mainīgajiem.

    Piemēram, ja ieguldījumu procesa modelī ir iekļautas nominālās un reālās procentu likmes, t.i.

    kur ir zināma sakarība starp reālajām un nominālajām likmēm un inflācijas līmeni

    tad ir acīmredzama multikolinearitāte.

    Netiešā veidā rodas, kad ir stohastiskā (nenoteikta, nejauša) lineārā atkarība starp eksogēniem mainīgajiem.

    dominē netiešais, tā klātbūtni raksturo6 zīmes :

    1. Modeļa parametru OLS aplēses zaudē savas nepārvietotās īpašības .

    2. OLS aprēķinu dispersija palielinās:

    Sakarā ar to, ka korelācijas koeficients, kas nozīmē

    3. Ir samazinājums t- statistika, kas ir parametru nozīmīguma rādītāji:

    4. Determinācijas koeficients vairs nav modeļa atbilstības mērs, jo zemas vērtības t-statistiķi rada neuzticēšanos izvēlētajam atkarības modelim.

    5. Parametru aplēses nekolineāriem eksogēniem mainīgajiem kļūst ļoti jutīgas pret izmaiņām datos.

    6. Parametru novērtējumi nekolineāriem eksogēniem mainīgajiem kļūst nenozīmīgi.

    Multikolinearitātes diagnostikas metodes:

    1. darbība.(Sākotnējā) daudzkārtējās lineārās regresijas modelī mēs iziesim cauri visiem apakšmodeļiem, kuros jebkurš eksogēns mainīgais kļūst par endogēnu, t.i.

    2. darbība. Mēs aprēķinām visu iegūto modeļu noteikšanas koeficientus, uz kuru pamata mēs aprēķinām tā sauktos inflācijas koeficientus:

    Ja , tad viņi secina, ka pastāv daudzkolinearitāte.

    a) tie nemaina modelī nekādu struktūru, bet, izmantojot datora mazāko kvadrātu, analizē multikolinearitātes problēmas esamību ar vizuālām metodēm.

    b) uzlabot modeļa specifikāciju, no sākotnējā modeļa izslēdzot kolineāros eksogēnos mainīgos.

    c) palielināt statistikas datu apjomu.

    d) apvienot kolineāros mainīgos un iekļaut modelī kopīgu eksogēnu mainīgo.

    12. Multikolinearitātes novēršanas metodes. Galvenās sastāvdaļas metode. Ridge regresija.

    Ja modeļa galvenais uzdevums ir prognozēt atkarīgā mainīgā nākotnes vērtības, tad ar pietiekami lielu determinācijas koeficientu R2 (≥ 0,9) multikolinearitātes klātbūtne bieži neietekmē modeļa paredzamās īpašības.

    Ja pētījuma mērķis ir noteikt katra skaidrojošā mainīgā ietekmes pakāpi uz atkarīgo mainīgo, tad multikolinearitātes klātbūtne izkropļo patiesās attiecības starp mainīgajiem. Šajā situācijā daudzkolinearitāte šķiet nopietna problēma.

    Ņemiet vērā, ka nav vienas metodes multikolinearitātes novēršanai, kas būtu piemērota jebkurā gadījumā. Tas ir tāpēc, ka multikolinearitātes cēloņi un sekas ir neskaidras un lielā mērā ir atkarīgas no izlases rezultātiem.

    METODES:

    Mainīgā(-u) izslēgšana no modeļa

    Piemēram, pētot pieprasījumu pēc noteiktas preces, kā skaidrojošos mainīgos var izmantot šīs preces cenu un šīs preces aizstājēju cenas, kas bieži vien korelē viena ar otru. Izslēdzot no modeļa aizstājēju cenas, mēs, visticamāk, ieviesīsim specifikācijas kļūdu. Rezultātā ir iespējams iegūt neobjektīvas aplēses un izdarīt nepamatotus secinājumus. Lietišķajos ekonometriskos modeļos ir vēlams neizslēgt skaidrojošos mainīgos, līdz kolinearitāte kļūst par nopietnu problēmu.

    Vairāk datu vai jauna parauga iegūšana

    Dažreiz pietiek ar izlases lieluma palielināšanu. Piemēram, ja izmantojat gada datus, varat pāriet uz ceturkšņa datiem. Datu apjoma palielināšana samazina regresijas koeficientu dispersiju un līdz ar to palielina to statistisko nozīmīgumu. Tomēr jauna parauga iegūšana vai vecā parauga paplašināšana ne vienmēr ir iespējama vai ir saistīta ar nopietnām izmaksām. Turklāt šī pieeja var stiprināt autokorelāciju. Šīs problēmas ierobežo lietošanas spēju šī metode.

    Modeļa specifikācijas maiņa

    Dažos gadījumos multikolinearitātes problēmu var atrisināt, mainot modeļa specifikāciju: vai nu mainot modeļa formu, vai pievienojot skaidrojošos mainīgos, kas nav ņemti vērā sākotnējā modelī, bet būtiski ietekmē atkarīgo mainīgo. .

    Iepriekšējas informācijas izmantošana par dažiem parametriem

    Dažreiz, veidojot vairāku regresijas modeli, varat izmantot kādu provizorisku informāciju, jo īpaši dažu regresijas koeficientu zināmās vērtības. Visticamāk, ka koeficientu vērtības, kas iegūtas dažiem provizoriskajiem (parasti vienkāršākiem) modeļiem vai līdzīgam modelim, kas balstīts uz iepriekš iegūto paraugu, var tikt izmantots izstrādātajam modelim. Šis brīdis modeļiem.

    Lai ilustrētu, mēs sniedzam šādu piemēru. Tiek veidota regresija. Pieņemsim, ka mainīgie X1 un X2 ir savstarpēji saistīti. Iepriekš konstruētajam pāru regresijas modelim Y = γ0 + γ1X1+υ tika noteikts statistiski nozīmīgs koeficients γ1 (noteiktības labad γ1 = 0,8), savienojot Y ar X1. Ja ir pamats domāt, ka sakarība starp Y un X1 paliks nemainīga, tad varam iestatīt γ1 = β1 = 0,8. Pēc tam:

    Y = β0 + 0,8X1 + β2X2 + ε. ⇒ Y – 0,8X1 = β0 + β2X2 + ε.

    Vienādojums faktiski ir pāru regresijas vienādojums, kuram multikolinearitātes problēma nepastāv.

    Šīs metodes izmantošanas ierobežojumi ir saistīti ar:

      Iepriekšējas informācijas iegūšana bieži ir sarežģīta,

      varbūtība, ka piešķirtais regresijas koeficients būs vienāds dažādi modeļi, nav augsts.

    Mainīgo konvertēšana

    Dažos gadījumos multikolinearitātes problēmu var samazināt vai pat novērst, pārveidojot mainīgos.

    Piemēram, pieņemsim, ka empīriskās regresijas vienādojums ir Y = b0 + b1X1 + b2X2

    kur X1 un X2 ir korelēti mainīgie. Šādā situācijā varat mēģināt noteikt relatīvo vērtību regresijas atkarības. Visticamāk, ka līdzīgos modeļos multikolinearitātes problēma nebūs.

    Galvenās sastāvdaļas metode ir viena no galvenajām metodēm mainīgo izslēgšanai no daudzkārtējas regresijas modeļa.

    Šo metodi izmanto, lai novērstu vai samazinātu faktoru mainīgo daudzkolinearitāti regresijas modelī. Metodes būtība : faktoru mainīgo lielumu skaita samazināšana līdz nozīmīgākajiem ietekmējošiem faktoriem . To panāk, lineāri pārveidojot visus faktoru mainīgos xi (i=0,...,n) jaunos mainīgajos, ko sauc par galvenajām sastāvdaļām, t.i. tiek veikta pāreja no faktoru mainīgo X matricas uz galveno komponentu matricu F. Šajā gadījumā tiek izvirzīta prasība, ka pirmās galvenās komponentes izvēle atbilst visu faktoru mainīgo xi kopējās dispersijas maksimumam (i=0,...,n), otrajai komponentei jāatbilst maksimālajam atlikušā dispersija pēc pirmās galvenās komponentes ietekmes likvidēšanas utt.

    Ja nevar izslēgt nevienu no daudzkārtējās regresijas modelī iekļautajiem faktoru mainīgajiem, tad tiek izmantota viena no galvenajām neobjektīvajām metodēm regresijas modeļa koeficientu novērtēšanai - grēdas regresija jeb grēda. Izmantojot kores regresijas metodi neliels skaits tiek pievienots visiem matricas diagonālajiem elementiem (XTX) τ: 10-6 ‹ τ ‹ 0,1. Daudzkārtējas regresijas modeļa nezināmo parametru novērtējums tiek veikts, izmantojot formulu:

    kur ln ir identitātes matrica.

    Pamatnoteikumi

    Ja modelī regresorus savieno stingra funkcionālā atkarība, tad pilnīga (perfekta) multikolinearitāte. Šis tips multikolinearitāte var rasties, piemēram, lineārās regresijas uzdevumā, kas atrisināts ar mazāko kvadrātu metodi, ja matricas determinants ir vienāds ar nulli. Pilnīga multikolinearitāte neļauj viennozīmīgi novērtēt sākotnējā modeļa parametrus un nodalīt regresoru ieguldījumu izejas mainīgajā, pamatojoties uz novērojumu rezultātiem.

    Problēmās ar reāliem datiem pilnīgas multikolinearitātes gadījums ir ārkārtīgi reti. Tā vietā lietojumprogrammu domēnā mums bieži ir jāsaskaras daļēja multikolinearitāte, ko raksturo pāru korelācijas koeficienti starp regresoriem. Daļējas multikolinearitātes gadījumā matricai būs pilns rangs, bet tās determinants būs tuvu nullei. Šajā gadījumā formāli ir iespējams iegūt aplēses par modeļa parametriem un to precizitātes rādītājiem, taču tie visi būs nestabili.

    Daļējas multikolinearitātes sekas ir šādas:

    • parametru novērtējumu dispersiju palielināšanās
    • parametru t-statistisko vērtību samazināšanās, kas liek izdarīt nepareizu secinājumu par to statistisko nozīmīgumu
    • modeļa parametru un to dispersiju nestabilu novērtējumu iegūšana
    • iespēja iegūt nepareizu zīmi no parametru aplēses teorētiskā viedokļa

    Nav precīzu kvantitatīvu kritēriju daļējas multikolinearitātes noteikšanai. Kā tās klātbūtnes pazīmes visbiežāk tiek izmantotas šādas pazīmes:

    Multikolinearitātes novēršanas metodes

    Šīs problēmas risināšanai ir divas galvenās pieejas.

    Neatkarīgi no tā, kā tiek veikta faktoru atlase, to skaita samazināšana noved pie matricas nosacītības uzlabošanās un līdz ar to arī modeļa parametru aplēšu kvalitātes paaugstināšanās.

    Papildus uzskaitītajām metodēm ir vēl viena, vienkāršāka, kas dod diezgan labus rezultātus - tas ir pirmscentrēšanas metode. Metodes būtība ir tāda, ka pirms parametru atrašanas matemātiskais modelis Avota dati ir centrēti: no katras datu sērijas vērtības tiek atņemts sērijas vidējais lielums: . Šī procedūra ļauj mums atdalīt LSM nosacījumu hiperplaknes tā, lai leņķi starp tām būtu perpendikulāri. Rezultātā modeļa aplēses kļūst stabilas (Daudzfaktoru modeļu konstruēšana multikolinearitātes apstākļos).

    Krievijas Federācijas federālā izglītības un zinātnes aģentūra

    Kostromas Valsts tehnoloģiskā universitāte.

    Augstākās matemātikas katedra

    ekonometrikā par tēmu:

    Daudzkolinearitāte

    Izpildīts

    1. kursa studente

    korespondences fakultāte

    gulēt "Grāmatvedība"

    analīze un audits."

    ES pārbaudīju

    Kateržina S.F.

    Kostroma 2008


    Daudzkolinearitāte

    Daudzkolinearitāte attiecas uz skaidrojošo mainīgo lielu savstarpējo korelāciju. Multikollinearitāte var izpausties funkcionālā (skaidri) un stohastiskā (slēptā) formās.

    Multikolinearitātes funkcionālajā formā saskaņā ar vismaz viena no pāru attiecībām starp skaidrojošajiem mainīgajiem ir lineāra funkcionāla sakarība. Šajā gadījumā matrica X`X ir īpaša, jo tajā ir lineāri atkarīgi kolonnu vektori, un tās determinants ir vienāds ar nulli, t.i. tiek pārkāpts regresijas analīzes priekšnoteikums, tas noved pie neiespējamības atrisināt atbilstošo normālo vienādojumu sistēmu un iegūt regresijas modeļa parametru aplēses.

    Taču ekonomiskajos pētījumos multikolinearitāte biežāk izpaužas stohastiskā formā, kad pastāv cieša korelācija starp vismaz diviem skaidrojošajiem mainīgajiem. Matrica X`X šajā gadījumā nav vienskaitlī, bet tās determinants ir ļoti mazs.

    Tajā pašā laikā novērtējumu b vektors un tā kovariācijas matrica ∑ b ir proporcionāli apgrieztā matrica(X`X) -1 , kas nozīmē, ka to elementi ir apgriezti proporcionāli determinanta |X`X| vērtībai. Rezultātā tiek iegūtas regresijas koeficientu b 0 , b 1 , ..., b p būtiskas standartnovirzes (standarta kļūdas) un novērtēt to nozīmīgumu, izmantojot t-testu, nav jēgas, lai gan kopumā regresijas modelis var pagriezties. ir nozīmīgs, izmantojot F testu.

    Aplēses kļūst ļoti jutīgas pret nelielām izmaiņām novērojumos un izlases lielumā. Regresijas vienādojumiem šajā gadījumā, kā likums, nav reālas nozīmes, jo dažiem to koeficientiem var būt nepareizas zīmes no ekonomikas teorijas viedokļa un nepamatoti lielas vērtības.

    Nav precīzu kvantitatīvu kritēriju, lai noteiktu multikolinearitātes esamību vai neesamību. Tomēr ir dažas heiristiskas pieejas, lai to identificētu.

    Viena šāda pieeja ir analizēt korelācijas matricu starp skaidrojošajiem mainīgajiem X 1 , X 2 , ..., X p un identificēt mainīgo pārus, kuriem ir augsta mainīgo korelācija (parasti lielāka par 0,8). Ja šādi mainīgie pastāv, tiek uzskatīts, ka tiem ir daudzkolinearitāte. Ir arī lietderīgi atrast vairākus determinācijas koeficientus starp vienu no skaidrojošajiem mainīgajiem un kādu to grupu. Augsta daudzkārtēja determinācijas koeficienta klātbūtne (parasti lielāka par 0,6) norāda uz multikolinearitāti.

    Vēl viena pieeja ir pārbaudīt matricu X`X. Ja matricas X`X determinants vai tās minimālā īpašvērtība λ min ir tuvu nullei (piemēram, tādā pašā secībā ar uzkrājošām aprēķina kļūdām), tad tas norāda uz multikolinearitātes esamību. to pašu var norādīt ar ievērojamu matricas X`X maksimālās īpašvērtības λ max novirzi no tās minimālās īpašvērtības λ min .

    Lai novērstu vai samazinātu multikolinearitāti, tiek izmantotas vairākas metodes. Vienkāršākais no tiem (bet ne vienmēr iespējams) ir tas, ka no diviem skaidrojošiem mainīgajiem, kuriem ir augsts korelācijas koeficients (vairāk nekā 0,8), viens mainīgais tiek izslēgts no izskatīšanas. Tajā pašā laikā, kuru mainīgo paturēt un kuru izņemt no analīzes, lemj galvenokārt, pamatojoties uz ekonomiskiem apsvērumiem. Ja no ekonomiskā viedokļa nevienam no mainīgajiem nevar dot priekšroku, tad tiek saglabāts viens no diviem mainīgajiem, kuram ir augstāks korelācijas koeficients ar atkarīgo mainīgo.

    Vēl viena metode multikolinearitātes novēršanai vai samazināšanai ir pāriet no objektīviem aprēķiniem, kas noteikti ar mazāko kvadrātu metodi, uz neobjektīviem aprēķiniem, kuriem tomēr ir mazāka izkliede attiecībā pret aplēsto parametru, t.i. mazākā matemātiskā sagaidāmā novērtējuma b j novirzes kvadrātā no parametra β j vai M (b j - β j) 2.

    Aprēķiniem, kas noteikti ar vektoru, saskaņā ar Gausa-Markova teorēmu ir minimālās novirzes visu lineāro objektīvo novērtētāju klasē, bet multikollinearitātes klātbūtnē šīs dispersijas var būt pārāk lielas, un, pievēršoties attiecīgajiem neobjektīviem novērtētājiem, var uzlabot regresijas parametru novērtēšanas precizitāti. Attēlā parādīts gadījums, kad neobjektīvais novērtējums β j ^, kura izlases sadalījumu nosaka blīvums φ (β j ^).

    Patiešām, lai aprēķinātā parametra β j maksimālais pieļaujamais ticamības intervāls ir (β j -Δ, β j + Δ). Tad ticamības varbūtība jeb aplēses ticamība, ko nosaka laukums zem sadalījuma līknes intervālā (β j -Δ, β j + Δ), kā tas ir viegli redzams no attēla, šajā gadījumā būs lielāka novērtējumam β j, salīdzinot ar b j (attēlā šie apgabali ir iekrāsoti). Attiecīgi aplēses vidējā kvadrātā novirze no aplēstā parametra būs mazāka neobjektīvam aprēķinam, t.i.:

    M (β j ^ - β j) 2< M (b j - β j) 2

    Izmantojot “kores regresiju” (vai “kores regresiju”), objektīvu aprēķinu vietā tiek ņemti vērā vektora norādītie neobjektīvie aprēķini.

    β τ ^ =(X`X+τ E p +1) -1 X`Y,

    Kur τ – kāds pozitīvs skaitlis, ko sauc par "kores" vai "kores"

    E p +1 – – kārtas matrica (p+1).

    Papildinājums τ uz matricas diagonālajiem elementiem X`X liek modeļa parametru aplēses nobīdīt, bet tajā pašā laikā palielinās normālo vienādojumu sistēmas matricas determinants - (X`X) vietā no būs vienāds ar

    |X`X+τ E p +1 |

    Tādējādi kļūst iespējams izslēgt multikolinearitāti gadījumā, ja determinants |X`X| tuvu nullei.

    Lai novērstu multikolinearitāti, var izmantot pāreju no sākotnējiem skaidrojošajiem mainīgajiem X 1 , X 2 ,…, X n , kas savstarpēji saistīti ar diezgan ciešu korelāciju, uz jauniem mainīgajiem, kas attēlo sākotnējo lineāras kombinācijas. Šajā gadījumā jaunajiem mainīgajiem ir jābūt vāji korelētiem vai pilnīgi nekorelētiem. Kā šādus mainīgos mēs ņemam, piemēram, tā sauktos sākotnējo skaidrojošo mainīgo vektora galvenos komponentus, kas pētīti komponentu analīzē, un apsveram regresiju uz galvenajiem komponentiem, kuros pēdējie darbojas kā vispārināti skaidrojošie mainīgie, ņemot vērā turpmākos nosacījumus. jēgpilnu (ekonomisku) interpretāciju.

    Galveno komponentu ortogonalitāte novērš multikolinearitātes efektu. Turklāt izmantotā metode ļauj mums aprobežoties ar nelielu skaitu galveno komponentu ar salīdzinoši lielu skaitu sākotnējo skaidrojošo mainīgo.

    Daudzkolinearitāte - ir jēdziens, ko izmanto, lai aprakstītu problēmu, kad brīva lineāra sakarība starp skaidrojošiem mainīgajiem rada neuzticamas regresijas aplēses. Protams, šāda atkarība ne vienmēr rada neapmierinošus vērtējumus. Ja visi pārējie nosacījumi ir labvēlīgi, tas ir, ja novērojumu skaits un skaidrojošo mainīgo izlases dispersijas ir lielas, un nejaušā vārda dispersija ir maza, tad galu galā var iegūt diezgan labus aprēķinus.

    Tātad multikolinearitāti ir jāizraisa vāju attiecību un viena (vai vairāku) nelabvēlīgu apstākļu kombinācijai, un tas ir jautājums.

    parādības izpausmes pakāpe, nevis tās veids. Jebkuras regresijas novērtējums zināmā mērā no tā cietīs, ja vien visi neatkarīgie mainīgie neizrādīsies pilnīgi nekorelējoši. Šīs problēmas izskatīšana sākas tikai tad, kad tā nopietni ietekmē regresijas novērtējuma rezultātus.

    Šī problēma ir izplatīta laika rindu regresijā, tas ir, ja dati sastāv no vairākiem novērojumiem noteiktā laika periodā. Ja diviem vai vairākiem neatkarīgiem mainīgajiem ir spēcīga laika tendence, tie būs ļoti korelēti, un tas var izraisīt daudzkolinearitāti.


    Ko šajā gadījumā var darīt?

    Dažādās metodes, ko var izmantot, lai mazinātu multikolinearitāti, iedala divās kategorijās: pirmā kategorija ietver mēģinājumus uzlabot pakāpi, kādā tiek izpildīti četri regresijas aplēšu ticamības nosacījumi; otrajā kategorijā ietilpst izmantošana ārējā informācija. Ja vispirms izmantotu iespējamos tieši iegūtos datus, tad acīmredzot būtu lietderīgi palielināt novērojumu skaitu.

    Ja izmantojat laikrindu datus, to var izdarīt, saīsinot katra laika perioda ilgumu. Piemēram, novērtējot pieprasījuma funkcijas vienādojumus 5.3. un 5.6. uzdevumā, varat pārslēgties no gada datu izmantošanas uz ceturkšņa datiem.

    Pēc tam 25 novērojumu vietā būs 100. Tas ir tik acīmredzami un tik vienkārši izdarāms, ka lielākā daļa pētnieku, kas izmanto laikrindas, gandrīz automātiski izmanto ceturkšņa datus, ja tādi ir pieejami, nevis gada datus, pat ja daudzkolinearitāte nav problēma. tikai argumentācijas labad.regresijas koeficientu minimālās teorētiskās dispersijas. Tomēr ar šo pieeju ir iespējamas problēmas. Autokorelāciju var ieviest vai uzlabot, bet to var neitralizēt. Turklāt, ja ceturkšņa dati tiek mērīti ar mazāku precizitāti nekā attiecīgie gada dati, var tikt ieviesta (vai pastiprināta) novirze mērījumu kļūdu dēļ. Šo problēmu nav viegli atrisināt, taču tā var nebūt nozīmīga.

    Multikolinearitāte ir divu vai vairāku skaidrojošo mainīgo korelācija regresijas vienādojumā. Tas var būt funkcionāls (skaidrs) un stohastisks (slēpts). Ar funkcionālu multikolinearitāti XTX matrica ir deģenerēta un (XTX)-1 neeksistē, tāpēc to nav iespējams noteikt. Biežāk multikolinearitāte izpaužas stohastiskā formā, savukārt OLS aplēses formāli pastāv, taču tām ir vairāki trūkumi:

    • 1) nelielas izmaiņas sākotnējos datos izraisa būtiskas izmaiņas regresijas aplēsēs;
    • 2) aplēsēm ir lielas standarta kļūdas un zema nozīmība, savukārt modelis kopumā ir nozīmīgs (augsta R2 vērtība);
    • 3) koeficientu intervālu aplēses paplašinās, pasliktinot to precizitāti;
    • 4) regresijas koeficientam ir iespējams iegūt nepareizu zīmi.

    Atklāšana

    Ir vairākas pazīmes, pēc kurām var noteikt multikolinearitātes klātbūtni.

    Pirmkārt, pāru korelācijas koeficientu korelācijas matricas analīze:

    • - ja ir mainīgo pāri, kuriem ir augsts korelācijas koeficients (> 0,75 - 0,8), tie runā par multikolinearitāti starp tiem;
    • - ja faktori ir nekorelēti, tad det Q = 1, ja ir pilnīga korelācija, tad det Q = 0.

    Varat pārbaudīt H0: det Q = 1; izmantojot statistisko testu

    kur n ir novērojumu skaits, m = p+1.

    Ja, tad H0 tiek noraidīts un ir pierādīta multikolinearitāte.

    Otrkārt, tiek noteikti viena skaidrojošā mainīgā un dažu citu grupu daudzkārtēji determinācijas koeficienti. Augsta R2 (> 0,6) klātbūtne norāda uz daudzkolinearitāti.

    Treškārt, XTX matricas minimālās īpašvērtības (t.i., vienādojuma risinājuma) tuvums nullei norāda, ka arī det (XTX) ir tuvu nullei un līdz ar to arī multikolinearitāte.

    Ceturtkārt, augsti daļējās korelācijas koeficienti.

    kur ir izlases korelācijas koeficientu matricas elementu algebriskie saskaitījumi. Augstāku pasūtījumu daļējās korelācijas koeficientus var noteikt, izmantojot zemāku pasūtījumu daļējās korelācijas koeficientus, izmantojot atkārtotu formulu:

    Piektkārt, daži cilvēki runā par multikolinearitātes klātbūtni ārējās pazīmes konstruētais modelis, kas ir tā sekas. Tajos jāiekļauj:

    • · dažām aplēsēm ir nepareizas zīmes no ekonomikas teorijas viedokļa vai nepamatoti lielas absolūtās vērtības;
    • · nelielas izmaiņas sākotnējos statistikas datos (pievienojot vai noņemot dažus novērojumus) noved pie būtiskām izmaiņām modeļa koeficientu novērtējumos, pat mainot to zīmes;
    • · lielākā daļa vai pat visi regresijas koeficientu novērtējumi pēc t-testa izrādās statistiski nenozīmīgi, savukārt modelis kopumā ir nozīmīgs pēc F-testa.

    Ir vairākas citas metodes multikolinearitātes noteikšanai.

    Ja modeļa galvenais uzdevums ir prognozēt atkarīgā mainīgā nākotnes vērtības, tad ar pietiekami lielu determinācijas koeficientu R2 (> 0,9) multikolinearitātes klātbūtne parasti neietekmē modeļa paredzamās īpašības. Šis apgalvojums būs pamatots, ja tādas pašas attiecības starp korelētajiem mainīgajiem saglabāsies arī turpmāk.

    Ja pētījuma mērķis ir noteikt katra skaidrojošā mainīgā ietekmes pakāpi uz atkarīgo mainīgo, tad multikolinearitātes klātbūtne, kas izraisa pieaugumu standarta kļūdas, visticamāk, izkropļo patiesās attiecības starp mainīgajiem. Šajā situācijā multikolinearitāte ir nopietna problēma.