Senin, 07 Maret 2016

Teori Uji Asumsi Klasik

A.Uji Normalitas
H0 : εi ~N (0,σ2) atau εi berdistribusi normal
H1 εi ~N (0,σ2)  atau εi tidak berdistribusi normal
Konsekuensi Tidak Memenuhi Asumsi Normalitas
· Menggunakan uji t dan F yang berasal dari distribusi normal, sehingga tidak ada kesebandingan dengan nilai tabel T dan tabel F
· Koefisien regersi yang dihasilkan akan bias
· Errornya akan semakin besar
 Cara Mendeteksi
·         Menggunakan grafik Q-Q Plot, normal bila data berada di sekitar garis linier 45 derajat
·         Menggunakan uji Kolmogorov Smirnov, Jarque Berra, Shapiro Wilk atau Chi Quadrat
 Cara Mengatasinya
·         Mengecek dan menghilangkan data outlier
·         Mengecek apakah ada salah entri atau salah satuan
·         Menambah data bila memungkinkan
·         Mentranformasi data dengan log atau ln
 B.Uji HETEROSKEDASTIS
H0 : E(εi,εj) =σ2  i=j atau var (εi2) =σ2
H1 : E(εi,εj)σ2  i=j atau var (εi2) ≠ σ2
Konsekuensi Heteroskedastis
   Jika asumsi regresi linier klasik terpenuhi kecuali adanya heteroskedastisitas, maka penaksir OLS tetap tak bias dan konsisten, namun penaksir tsb tidak lagi efisien baik dalam sampel kecil maupun sampel besar (secara asimtotik)
   Jika tetap menggunakan penaksir OLS pada kondisi heteroskedastis, maka varian penaksir parameter koefisien regresi akan underestimate (menaksir terlalu rendah) atau overestimate (menaksir terlalu tinggi)
   Jika asumsi regresi linier klasik terpenuhi kecuali adanya heteroskedastisitas, maka penaksir OLS tetap tak bias dan konsisten, namun penaksir tsb tidak lagi efisien baik dalam sampel kecil maupun sampel besar (secara asimtotik)
   Jika tetap menggunakan penaksir OLS pada kondisi heteroskedastis, maka varian penaksir parameter koefisien regresi akan underestimate (menaksir terlalu rendah) atau overestimate (menaksir terlalu tinggi)
 Pendeteksian Heteroskedastis
Dengan grafik
Pengujian Park
             menggunakan fungsi
Karena umumnya tidak diketahui, maka Park menyarankan untuk menggunakan shg persamaan
regresinya menjadi 
Jika koefisien regresi (β) signifikan secara statistik, maka dikatakan terjadi heteroskedasatisitas.
Pengujian korelasi rank Spearman
Langkah-langkah:
Cocokan regresi Y terhadap X, dan hitung εi.
Hitung rank dari |εi| dan Xi, selanjutnya hitung korelasi Spearman
·        Pengujian white test
·        Pengujian gletzer
 Mengatasi Heteroskedastisitas
  • Metode Generalized Least Squares (GLS)
            Perhatikan model berikut :
            Yi  =  β0 +β1Xi  + εi dengan  Var (εi) = σi2
            Masing-masing dikalikan
            Maka diperoleh transformed model sebagai berikut:
                        Yi* = β0* + β1Xi* + εi* 1/σ2
 ·         Mentranformasi data dengan ln, atau 1/x
 c. Uji Multikolinearitas
H0 : ρij =0 untuk ij  (tidak ada multikolinearitas antar variabel bebas)
H1 : ρij≠0 untuk ij (terdapat multikolinearitas antar variabel bebas)
 Konsekuensi Multikolinieritas
Meski penaksir OLS bisa diperoleh, standard error (kesalahan baku) cenderung semakin besar dengan meningkatnya korelasi antar variabel bebas
·      Besarnya standard error berakibat, selang keyakinan (confidence interval) untuk suatu parameter menjadi lebih lebar
·      Kesalahan tipe II meningkat
·      Pada multikolinieritas yg tinggi tapi tidak sempurna, estimator koefisien regresi bisa diperoleh, tapi estimator & standard error menjadi sensitif terhadap perubahan data
·      Pada multikolinieritas yg tinggi tapi tidak sempurna, bisa terjadi R2 (koefisien determinasi) tinggi namun tidak satupun variabel signifikan secara statistik
 Cara Mendeteksi Multikolinieritas
  • Matriks Korelasi Antar Variabel Bebas
Periksa Apakah Terdapat Nilai Korelasi Yg Tinggi (Sempurna) Antar Variabel Bebas
  • Kestabilan Koefisien Regresi Parsial
  • Kesesuaian Tanda Koefisien Regresi Menurut Suatu Teori
  • Variance Inflation Factor (VIF)
Petunjuk Terjadinya Kolinieritas Jika VIF > 10
  • R2 Tinggi, Tapi Tidak Ada/Hanya Sedikit Variabel Bebas Yg Signifikan Secara Statistik
 Alternatif Solusi Mengatasi Multikolinieritas
  • Informasi apriori
Contoh: Pada model Yi = β0+β1Xi1+β2Xi2+εi
Misal Y =  Konsumsi, X1 = Pendapatan, X2 = Tabungan
Informasi apriori, misalkan β2 = 0,10β1 sehingga
Yi = β0+β1Xi1+0,10β1Xi2+εi = β0+β1Xi+εi
dimana Xi = Xi1+0,10Xi2
Informasi apriori bisa berdasarkan suatu teori atau hasil penelitian sebelumnya
  • Menghubungkan data cross-sectional dan data time series (panel data)
  • Mengeluarkan satu atau beberapa variabel bebas
Beberapa metode yg dapat digunakan:
Principle Component Analysis; Factor Analysis; Stepwise Regression; Ridge Regression (mentransformasi variabel), dan sebagainya.
  • Transformasi variabel (melalui first differencing)
·         Untuk data time series, jika hubungan Yt = β0+β1Xt1+β2Xt2+εt
berlaku pd saat t, maka berlaku pula untuk t-1, shg adaYt-1 = β0+β1X(t-1)1+β2X(t-1)2+εt-1
Jika kedua persamaan di atas dikurangkan, maka diperoleh
Yt – Yt-1 = β1(Xt1 – X(t-1)1) + β2(Xt2 – X(t-1)2) + vt
dimana vt = εtεt-1 
  • Penambahan data baru

  • Uji Autokorelasi
  • H0 :ρ = 0; atau E(εi,εj) = 0 untuk  i≠j  ; Tidak ada korelasi (Non Autokeralasi)
    H1 ρ0; atau E(εi,εj)0 untuk i≠j; Ada korelasi, baik positif maupun negatif (Autokorelasi)
      Konsekuensi Autokolerasi
    ·         Regresi yang dihasilkan regresi suporius/lancung/palsu
    ·         Akan menghasilkan estimator yang bias
     Cara mendeteksi Autokolerasi
    ·         Menggunakan nilai durbin watson
    ·         Menggunakan LM-Bruesch Pagan Test
  • Cara mengatasi
  • ·          Menambah data
    ·         Menggunakan lag data
    ·         Menggunakan difference data
     
    Sumber:

0 komentar:

Posting Komentar