H0 : εi ~N (0,σ2) atau εi berdistribusi normal
H1 : εi ~N (0,σ2) atau εi tidak berdistribusi normal
Konsekuensi Tidak Memenuhi Asumsi Normalitas
· Menggunakan uji t dan F yang berasal dari distribusi normal, sehingga tidak ada kesebandingan dengan nilai tabel T dan tabel F
· Koefisien regersi yang dihasilkan akan bias
· Errornya akan semakin besar
Cara Mendeteksi
· Menggunakan grafik Q-Q Plot, normal bila data berada di sekitar garis linier 45 derajat
· Menggunakan uji Kolmogorov Smirnov, Jarque Berra, Shapiro Wilk atau Chi Quadrat
Cara Mengatasinya
· Mengecek dan menghilangkan data outlier
· Mengecek apakah ada salah entri atau salah satuan
· Menambah data bila memungkinkan
B.Uji HETEROSKEDASTIS
H0 : E(εi,εj) =σ2 i=j atau var (εi2) =σ2
H1 : E(εi,εj) ≠ σ2 i=j atau var (εi2) ≠ σ2
Konsekuensi Heteroskedastis
Jika
asumsi regresi linier klasik terpenuhi kecuali adanya
heteroskedastisitas, maka penaksir OLS tetap tak bias dan konsisten,
namun penaksir tsb tidak lagi efisien baik dalam sampel kecil maupun
sampel besar (secara asimtotik)
Jika tetap menggunakan penaksir OLS pada kondisi heteroskedastis, maka varian penaksir parameter koefisien regresi akan underestimate (menaksir terlalu rendah) atau overestimate (menaksir terlalu tinggi)
Jika
asumsi regresi linier klasik terpenuhi kecuali adanya
heteroskedastisitas, maka penaksir OLS tetap tak bias dan konsisten,
namun penaksir tsb tidak lagi efisien baik dalam sampel kecil maupun
sampel besar (secara asimtotik)
Jika tetap menggunakan penaksir OLS pada kondisi heteroskedastis, maka varian penaksir parameter koefisien regresi akan underestimate (menaksir terlalu rendah) atau overestimate (menaksir terlalu tinggi)
Pendeteksian Heteroskedastis
Dengan grafik
Pengujian Park
menggunakan fungsi
Karena umumnya tidak diketahui, maka Park menyarankan untuk menggunakan shg persamaan
regresinya menjadi
Jika koefisien regresi (β) signifikan secara statistik, maka dikatakan terjadi heteroskedasatisitas.
Pengujian korelasi rank Spearman
Langkah-langkah:
Cocokan regresi Y terhadap X, dan hitung εi.
Hitung rank dari |εi| dan Xi, selanjutnya hitung korelasi Spearman
· Pengujian white test
· Pengujian gletzer
Mengatasi Heteroskedastisitas
- Metode Generalized Least Squares (GLS)
Perhatikan model berikut :
Yi = β0 +β1Xi + εi dengan Var (εi) = σi2
Masing-masing dikalikan
Maka diperoleh transformed model sebagai berikut:
Yi* = β0* + β1Xi* + εi* 1/σ2
· Mentranformasi data dengan ln, atau 1/x
c. Uji Multikolinearitas
H0 : ρij =0 untuk i≠j (tidak ada multikolinearitas antar variabel bebas)
H1 : ρij≠0 untuk i≠j (terdapat multikolinearitas antar variabel bebas)
Konsekuensi Multikolinieritas
Meski
penaksir OLS bisa diperoleh, standard error (kesalahan baku) cenderung
semakin besar dengan meningkatnya korelasi antar variabel bebas
· Besarnya standard error berakibat, selang keyakinan (confidence interval) untuk suatu parameter menjadi lebih lebar
· Kesalahan tipe II meningkat
· Pada
multikolinieritas yg tinggi tapi tidak sempurna, estimator koefisien
regresi bisa diperoleh, tapi estimator & standard error menjadi
sensitif terhadap perubahan data
· Pada multikolinieritas yg tinggi tapi tidak sempurna, bisa terjadi R2 (koefisien determinasi) tinggi namun tidak satupun variabel signifikan secara statistik
Cara Mendeteksi Multikolinieritas
- Matriks Korelasi Antar Variabel Bebas
Periksa Apakah Terdapat Nilai Korelasi Yg Tinggi (Sempurna) Antar Variabel Bebas
- Kestabilan Koefisien Regresi Parsial
- Kesesuaian Tanda Koefisien Regresi Menurut Suatu Teori
- Variance Inflation Factor (VIF)
Petunjuk Terjadinya Kolinieritas Jika VIF > 10
- R2 Tinggi, Tapi Tidak Ada/Hanya Sedikit Variabel Bebas Yg Signifikan Secara Statistik
Alternatif Solusi Mengatasi Multikolinieritas
- Informasi apriori
Contoh: Pada model Yi = β0+β1Xi1+β2Xi2+εi
Misal Y = Konsumsi, X1 = Pendapatan, X2 = Tabungan
Informasi apriori, misalkan β2 = 0,10β1 sehingga
Yi = β0+β1Xi1+0,10β1Xi2+εi = β0+β1Xi+εi
dimana Xi = Xi1+0,10Xi2
Informasi apriori bisa berdasarkan suatu teori atau hasil penelitian sebelumnya
- Menghubungkan data cross-sectional dan data time series (panel data)
- Mengeluarkan satu atau beberapa variabel bebas
Beberapa metode yg dapat digunakan:
Principle Component Analysis; Factor Analysis; Stepwise Regression; Ridge Regression (mentransformasi variabel), dan sebagainya.
- Transformasi variabel (melalui first differencing)
· Untuk data time series, jika hubungan Yt = β0+β1Xt1+β2Xt2+εt
berlaku pd saat t, maka berlaku pula untuk t-1, shg adaYt-1 = β0+β1X(t-1)1+β2X(t-1)2+εt-1
Jika kedua persamaan di atas dikurangkan, maka diperoleh
Yt – Yt-1 = β1(Xt1 – X(t-1)1) + β2(Xt2 – X(t-1)2) + vt
dimana vt = εt – εt-1
- Penambahan data baru
- Uji Autokorelasi
- H0 :ρ = 0; atau E(εi,εj) = 0 untuk i≠j ; Tidak ada korelasi (Non Autokeralasi)
H1 : ρ≠0; atau E(εi,εj)≠0 untuk i≠j; Ada korelasi, baik positif maupun negatif (Autokorelasi)Konsekuensi Autokolerasi· Regresi yang dihasilkan regresi suporius/lancung/palsu· Akan menghasilkan estimator yang biasCara mendeteksi Autokolerasi· Menggunakan nilai durbin watson· Menggunakan LM-Bruesch Pagan Test
-
Cara mengatasi
-
· Menambah data· Menggunakan lag data· Menggunakan difference dataSumber:
0 komentar:
Posting Komentar