Excel parancsfájlok felhasználása a statisztikai elemzésekben Írta ...
Excel parancsfájlok felhasználása a statisztikai elemzésekben Írta ...
Excel parancsfájlok felhasználása a statisztikai elemzésekben Írta ...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
A bj regressziós paraméter konfidencia intervalluma ( 1−α ) × 100 valószínűségi szinten %-ban:<br />
Ahol:<br />
<br />
b ± t s<br />
j (1−α/ 2)(n −k−1) bj<br />
s b = a j-ik paraméter standard hibája (St hiba),<br />
j<br />
t(1−α/ 2)(n −k− 1) = a Student-féle t-próba kritikus értéke az (n-k-1) szabadságfoknál, az α/2<br />
szignifikancia-szinten.<br />
Az általunk előre megválasztott szignifikancia-szint alapesetben 5%-os (p=0,05) valószínűség (konfidencia<br />
intervallum 95%), ami változtatható a sárga cellában: pl. 1% (konfidencia intervallum 99% és<br />
tkrit=1%., p=0,01), 10 % (konfidencia intervallum 90% és tkrit=10%, p=0,1).<br />
Az α szignifikancia-szint valószínűségének csökkentésével illetve a konfidencia intervallum valószínűségének<br />
növelésével az adott (n-k-1) szabadságfok esetén a Student-féle t-eloszlás kritikus értékei is nagyobb<br />
számok lesznek és így a regressziós paraméterek konfidencia intervallumai is növekednek. Pl. ha<br />
az alapeset 95%-os konfidencia intervallum valószínűségét 99%-ra növeljük. Ez fordítva is igaz, az α<br />
szignifikancia-szint valószínűségének növelésével illetve a konfidencia intervallum valószínűségének<br />
csökkentésével az adott (n-k-1) szabadságfok esetén a Student-féle t-eloszlás kritikus értékei is kisebb<br />
számok lesznek és így a regressziós paraméterek konfidencia intervallumai is csökkennek. Pl. az alapeset<br />
95%-os konfidencia intervallum valószínűségét 90%-ra csökkentjük.<br />
A Backward eliminációs módszer<br />
A paraméterek szeparált tesztelésénél tehát a nullhipotézisünk az, hogy a j-edik (j=1,2…k) regressziós<br />
paraméter értéke 0, az alternatív hipotézisünk pedig az, hogy nem, azaz<br />
H 0 : βj=0<br />
H 1 : βj ≠ 0<br />
A nullhipotézis elfogadása azt jelenti, hogy a j-edik magyarázó változó nem magyarázza az eredményváltozót,<br />
tehát a modellben való megtartása felesleges, esetleg káros.<br />
A próbafüggvény a nullhipotézis fennállása esetén<br />
b j<br />
t = < t<br />
A próbafüggvény a nullhipotézis elutasítása esetén<br />
b j<br />
t = > t<br />
Ahol<br />
j<br />
(1−α/ 2)(n −k−1) sb j<br />
(1−α/ 2)(n −k−1) sb j<br />
b = j-edik regressziós együttható becsült értéke, (együttható: Eható)<br />
s b = j-edik regressziós együttható becsült standard hibája, (St hiba)<br />
j<br />
Ezt a próbát parciális t-próbának, vagy röviden csak regressziós t-próbának hívjuk. A próbát külön-külön<br />
valamennyi regressziós becsült paraméterre el kell végezni, és ennek alapján képet kapunk arról, hogy az<br />
egyes változók lényeges mértékben járulnak-e hozzá az eredményváltozó magyarázatához, vagyis az<br />
eredményváltozó reziduális varianciájának csökkentéséhez.<br />
Az első lépésben tehát minden változót bevonunk, és ha a p-értékek (szignifikancia-szint 5%) mindegyike<br />
0,05-nél kisebb akkor a regressziós függvényt optimálisnak tekintjük. Ha találunk olyan paramétert,<br />
ahol a p érték nagyobb, mint 0,05, amit a piros szín is jelez, akkor dönthetünk a változó kihagyásáról, ha<br />
pedig több ilyen paraméter található, akkor célszerű először azt a váltózót kihagyni, amelyiknél a p értéke<br />
a legnagyobb. Ezt addig folytatjuk, amíg a p értékek mindegyike 0,05-nél kisebb lesz és a modell az elméleti<br />
feltételeknek is megfelel.<br />
4.1.2 A Mátrix munkalap<br />
153