03.05.2013 Views

Excel parancsfájlok felhasználása a statisztikai elemzésekben Írta ...

Excel parancsfájlok felhasználása a statisztikai elemzésekben Írta ...

Excel parancsfájlok felhasználása a statisztikai elemzésekben Írta ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

A bj regressziós paraméter konfidencia intervalluma ( 1−α ) × 100 valószínűségi szinten %-ban:<br />

Ahol:<br />

<br />

b ± t s<br />

j (1−α/ 2)(n −k−1) bj<br />

s b = a j-ik paraméter standard hibája (St hiba),<br />

j<br />

t(1−α/ 2)(n −k− 1) = a Student-féle t-próba kritikus értéke az (n-k-1) szabadságfoknál, az α/2<br />

szignifikancia-szinten.<br />

Az általunk előre megválasztott szignifikancia-szint alapesetben 5%-os (p=0,05) valószínűség (konfidencia<br />

intervallum 95%), ami változtatható a sárga cellában: pl. 1% (konfidencia intervallum 99% és<br />

tkrit=1%., p=0,01), 10 % (konfidencia intervallum 90% és tkrit=10%, p=0,1).<br />

Az α szignifikancia-szint valószínűségének csökkentésével illetve a konfidencia intervallum valószínűségének<br />

növelésével az adott (n-k-1) szabadságfok esetén a Student-féle t-eloszlás kritikus értékei is nagyobb<br />

számok lesznek és így a regressziós paraméterek konfidencia intervallumai is növekednek. Pl. ha<br />

az alapeset 95%-os konfidencia intervallum valószínűségét 99%-ra növeljük. Ez fordítva is igaz, az α<br />

szignifikancia-szint valószínűségének növelésével illetve a konfidencia intervallum valószínűségének<br />

csökkentésével az adott (n-k-1) szabadságfok esetén a Student-féle t-eloszlás kritikus értékei is kisebb<br />

számok lesznek és így a regressziós paraméterek konfidencia intervallumai is csökkennek. Pl. az alapeset<br />

95%-os konfidencia intervallum valószínűségét 90%-ra csökkentjük.<br />

A Backward eliminációs módszer<br />

A paraméterek szeparált tesztelésénél tehát a nullhipotézisünk az, hogy a j-edik (j=1,2…k) regressziós<br />

paraméter értéke 0, az alternatív hipotézisünk pedig az, hogy nem, azaz<br />

H 0 : βj=0<br />

H 1 : βj ≠ 0<br />

A nullhipotézis elfogadása azt jelenti, hogy a j-edik magyarázó változó nem magyarázza az eredményváltozót,<br />

tehát a modellben való megtartása felesleges, esetleg káros.<br />

A próbafüggvény a nullhipotézis fennállása esetén<br />

b j<br />

t = < t<br />

A próbafüggvény a nullhipotézis elutasítása esetén<br />

b j<br />

t = > t<br />

Ahol<br />

j<br />

(1−α/ 2)(n −k−1) sb j<br />

(1−α/ 2)(n −k−1) sb j<br />

b = j-edik regressziós együttható becsült értéke, (együttható: Eható)<br />

s b = j-edik regressziós együttható becsült standard hibája, (St hiba)<br />

j<br />

Ezt a próbát parciális t-próbának, vagy röviden csak regressziós t-próbának hívjuk. A próbát külön-külön<br />

valamennyi regressziós becsült paraméterre el kell végezni, és ennek alapján képet kapunk arról, hogy az<br />

egyes változók lényeges mértékben járulnak-e hozzá az eredményváltozó magyarázatához, vagyis az<br />

eredményváltozó reziduális varianciájának csökkentéséhez.<br />

Az első lépésben tehát minden változót bevonunk, és ha a p-értékek (szignifikancia-szint 5%) mindegyike<br />

0,05-nél kisebb akkor a regressziós függvényt optimálisnak tekintjük. Ha találunk olyan paramétert,<br />

ahol a p érték nagyobb, mint 0,05, amit a piros szín is jelez, akkor dönthetünk a változó kihagyásáról, ha<br />

pedig több ilyen paraméter található, akkor célszerű először azt a váltózót kihagyni, amelyiknél a p értéke<br />

a legnagyobb. Ezt addig folytatjuk, amíg a p értékek mindegyike 0,05-nél kisebb lesz és a modell az elméleti<br />

feltételeknek is megfelel.<br />

4.1.2 A Mátrix munkalap<br />

153

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!