Вы находитесь на странице: 1из 11

Multikolinearitas Multikolinearitas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara masing-masing variabel independen

dalam model regresi. Multikolinearitas biasanya terjadi ketika sebagian besar variabel yang digunakan saling terkait dalam suatu model regresi. Oleh karena itu masalah multikolinearitas tidak terjadi pada regresi linier sederhana yang hanya melibatkan satu variabel independen.

Beberapa cara mengindentifikasi adanya multinolinieritas pada model regresi, diantaranyaadalah :

1. Jika nilai regresi menunjukkan nilai R2 yang tinggi dan F statistik yang sangat signifikan (goodness of fit terpenuhi), namun sebagian besar variabel bebas tidak signifikan pengaruhnya (t hitung kecil) 2. Terdapat korelasi yang tinggi (R > 0.8) antara satu pasang atau lebih variabel bebas dalam model 3. Mencari nilai Condition Index (CI). Condition indek yang bernilai lebih dari 30 mengindentifikasikan adanya multikolineritas 4. Dapat pula melihat indikasi multikolinearitas dengan Tolerance Value (TOL), Eigenvalue, dan yang paling umum digunakan adalah Varians Inflation Factor (VIF). nilai VIF > 10 mengindentifikasi adanya multikolinieritas. 5. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan pada variabel yang diamati. 6. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang seharusnya memiliki pengaruh positif (nilai koefisien positif), ditunjukkan dengan nilai negatif.

Beberapa dampak multikolineritas yang serius pada sebuah regresi, akan berdampak pada : 1. Varian besar (dari takasiran OLS) 2. Interval kepercayaan lebar (varian besar - Standar Error besar - interval kepercayaan lebar) 3. Uji t (t rasio) tidak signbifikan, nilai t statistik menjadi lebih kecil sehingga variabel bebas tersebut menjadi tidak signifikan pengaruhnya. pengaruh lebih lanjutnya adalah bahwa koefisien regresi yang dihasilkan tidak mencerminkan nilai yang sebenarnya dimana sebagian koefisien cenderung over estimate dan yang lain under estimate

4. Terkadang taksiran koefisien yang didapat akan mempunyai nilai yang tidak sesuai dengan substansi, sehingga dapat menyesatkan interpretasi. Hal-hal yang perlu dilakukan bila terjadi multikolinearitas adalah 1. Transpormasi dara (misalnya dengan logaritma natural) 2. Mengeluarkan variabel yang berkorelasi dalam model 3. Mencari data tambahan

Penyebab, Dampak dan Mendeteksi Autokorelasi Posted by nasrul setiawan Tuesday, December 4, 2012 Labels: Analisis

Sebelumya sudah pernah dibahas masalah uji asumsi. namun, untuk kali ini akan dibahas lebih khusus lagi yaitu uji asumsi autokorelasi. untuk lengkap uji asumsi yang lain bisa kesini. langsung aja yaaa gan.... sekidot..:p Autokorelasi adalah korelasi yang terjadi antar observasi dalam satu variabel (Nachrowi djalal dan Hardius usman:2006). Korelasi ini terjadi antar waktu atau individu. Umumnya kasus autokorelasi banyak terjadi pada data time series, artinya kondisi sekarang dipengaruhi waktu lalu. Oleh karena itu, dalam analisis data time series, masalah autokorelasi menjadi pusat perhatian. Gambaran mudahnya pada kasus yang lagi ramai sekarang ini tentang Penetapan Upah Minimum provinsi (UPM) jakarta. Terus, hubungannya apa?. UPM ini selalu dipengaruhi berdasarkan UPM sebelumnya. Sehingga, dalam penetuan UPM selalu memperhatikan UPM sebelumnya. Dapat dibayangkan, bagaimana jika UPM tidak terkait dengan waktu sebelumnya. Para buruh akan mengalami ketidakpastian pada keuangannya sehingga akan menganggu urusan keluarga. Jauh banget ya. Jadi, autokorelasi sangat berguna pada kehidupan sehari-hari. Walaupun dalam kehidupan sehari-hari autokorelasi sangat berguna, namun dalam urusan analisis regresi dalam menggunakan OLS. ini menjadi masalah utama yang harus diselesaikan. OLS mengasumsikan bahwa error merupakan variabel random yang independent (tidak berkorelasi agar penduga bersifat BLUE. Atau secara matematis dituliskan:

A. Penyebab autokorelasi 1.Kesalahan model (linier non linier) 2. Penggunaan Lag (inertia) data observasi pada periode sebelumnya dan periode sekarang, kemungkinan besar akan saling ketergantungan (interdependence) 3. fenomena cobweb Munculnya fenomena sarang laba-laba terutama terjadi pada penawaran komoditi sektor pertanian Misalnya, panen komoditi permulaan tahun dipengaruhi oleh harga yang terjadi pada tahun sebelumnya ui tidak lagi bersifat acak (random), tetapi mengikuti suatu pola yaitu sarang laba-laba. 4.Tidak memasukkan variabel yang penting 5.Manipulasi data

B. Konsekuensi adanya autokorelasi : 1. Estimator yang dihasilkan masih unbiased, konsisten, dan asymptotical normally distributed. Tetapi tidak lagi efisien->varians tidak minimum (tidak BLUE) 2. Estimasi standard error dan varian koefisien regresi yang didapat akan underestimate. 3. Pemerikasaan terhadap residualnya akan menemui permasalahan. 4. Autokorelasi yang kuat dapat pula menyebabkan dua variabel yang tidak berhubungan menjadi berhubungan. Biasa disebut spourious regression. Hal ini terlihat dari R2. C. Mendeteksi autokorelasi

1. Metode Grafik

Metode ini merupakan metode yang paling sederhana untuk mendeteksi autokorelasi. Sekaligus merupakan langkah awal untuk mendeteksi autokorelasi. Sesuai dengan definisinya, metode ini membandingkan antara residual dengan variabel X. selain itu, dengan membandingkan antara rasidual ke-t dengan residual ke-(t-1). Suatu grafik mengindikasikan adanya autokorelasi dapat dilihat dari polanya. Suatu grafik dikatakan mengandung autokorelasi ketika terdapat pola antara residual dengan waktu atau antara residual ke-t sampai ke-(t-1).

Pada bagian (a) terlihat bahwa grafiknya membentuk pola siklus sehingga diindikasikan terdapat autokorelasi. Hal itu juga didukung dengan grafik antara raesidual ke-t dengan residual ke-(t-1) yang menunjukkan ada hubungan liniear..pada gambar tersebut terdapatnya autokorelasi positif dan negatif. Autokorelasi positif terlihat pada bagian (a) sedangkan autokorelasi negatif pada gambar bagian (b).

2. Uji Durbin Watson

Metode grafik diatas masih memiliki permasalahan. Pada metode ini, adanya autookorelasi agak sulit untuk ditentukan karena hanya melalui subjektifitas peneliti. Sehingga, kemungkinan tiap peniliti memiliki pandangan yang berbeda-beda. Oleh karena itu, perlu dilakukan pengujian formal yang dapat dipercaya secara ilmiah. Salah satu cara untuk mengetahui adanya autokorelasi adalah uji durbin-watson. hipotesis: Ho=tidak H1=ada

ada

autokorelasi autokorelasi

Statistik Uji :

Setelah mendapatkan statistik uji. Langkah selanjutnya adalah membandingkan dengan tabel DW. Tabel DW tediri atas dua nilai, yaitu batas bawah (dL) dan batas atas(dl) dan batas bawah(du). Berikut beberapa keputusan setelah membandingkan DW.

Bila d < dL tolak H0; Berarti ada korelasi yang positif atau kecenderungannya r= 1 Bila dL < d < dU kita tidak dapat mengambil kesimpulan apa-apa Bila dU < d < 4 dU jangan tolak H0; Artinya tidak ada korelasi positif maupun negatif Bila 4 dU < d < 4 dL kita tidak dapat mengambil kesimpulan apa-apa Bila d > 4 dL tolak H0; Berarti ada korelasi negative

3. Uji Run

Uji durbin Watson juga memiliki kelemahan ketika berada antara nilai dL dan dU atau antara (4-dU) dan (4-dL) maka keputusannya autokorelasi tidak bisa diketahui mempunyai autokorelasi apa tidak. Sehingga dilakukan uji lain bisa dengan metode grafik atau metode formal lainnya. Salah satu uji formal yaitu uji run. Perinsip kerja uji run sangat sederhana yaitu dengan melihat tanda nilai residual negtaif atau positif(+) atau negatif (-), tanpa memperhatikan nilainya. Sehingga run yang dimaksud disini adalah sekelompok nilai residual yang mempunyai tanda sama secara bertusut-turut.

Contoh: (++++++)(-----)(+++++)(----)

Hipotesis: H0=residual H1=tidak Untuk menghitungnya digunakan beberapa fungsi berikut:

random demikian

Dimana: N=jumlah N1=jumlah N2=jumlah

run run

observasi positif(+) negatif(-)

Dalam melakukan pengujian hipotesis, digunakan analisis interval kepercayaan :

E(run)-1,96 <= run <= E(run)+1,96 run

Keputusan: Apabila nilai Run berada diantara interval tersebut maka terima H0sehingga disimpulkan residualnya random dan tidak adanya unsur autokorelasi. 4. Uji Breusch-Godfrey(BG)/Lagrange Multiplier(LM)

Uji

ini

dikembangkan

oleh

breusch-bodfrey.

Berdasarkan model tersebut Breusch-bodfrey mengasumsikan bahwa Ut mengikuti autoregresif ordo p(AR(p)), sehingga membentuk model berikut:

Heterokedastisitas Asumsi homokedastisitas dari disturbance term error adalah selisih atau spread (scedacity) sama atau varians variabelnya sama (2), atau disimbolkan dengan: E(i) = 2 t = 1,2,.,t Heterokedastisitas disimbolkan dengan: E(i) = 2t t = 1,2,.,t Heteroskedastisitas terjadi apabila varians dari setiap kesalahan pengganggu tidak bersifat konstan. Heteroskedastisitas berarti suatu situasi di mana varians dari variabel dependen bervariasi di seluruh data. Heteroskedastisitas mempersulit analisis karena banyak metode dalam analisis regresi didasarkan pada asumsi varians sama. Masalah heteroskedastisitas lebih sering muncul pada data cross-sectional daripada time series (Manurung et al, 2005), walupun bukan berarti data time series bebas masalah heterokedastisitas. Untuk mendeteksi gejala heterokedastisitas dapat ditempuh lewat metode formal dan informal. Metode informal biasanya dilakukan dengan metode grafik dimana sumbu vertikal (x) menjelaskan nilai prediksi disturbance term error dan sumbu horisontal (y) merupakan nilai prediksi variabel regresor. Variabel dinyatakan bebas heteroskedastisitas jika tidak terdapat pola yang jelas dan titik-titik menyebar di atas dan di bawah angka nol pada sumbu Y.

Metode formal dapat dilakukan dengan uji Park, uji Glejser, uji Korelasi Spearmans, dan uji Goldfeld-Quant. 1.Uji Park Metode ini merupakan formalisasi dari metode grafik dimana varians merupakan fungsi dari variabel regressor: 2i = 2Xe ln 2i = ln 2 + ln X + v ln 2i = + lnX + v Metode ini dilakukan dengan meregresikan variabel regressan dengan variabel regressor untuk mendapatkan nilai disturbance term error . Kemudian nilai kuadrat prediksi disturbance term error dengan variabel regressan. Indikasi akan terjadinya masalah heteroskedastisitas pada metode ini dapat dilihat pada signifikansi koefisien . Jika koefisien signifikan (t hitung> t tabel dan atau p < 0,05) maka dapat dipastikan bahwa variabel bebas yang diuji tersebut terkena masalah heteroskedastisitas. 2.Uji Glejser

Metode ini hampir sama dengan cara pertama diatas, kecuali pada langkah kedua. Pada langkah kedua, nilai prediksi disturbance term error harus dimutlakan terlebih dulu sehingga formulasinya menjadi : ln 2i = + lnX + v 3.Uji Korelasi Spearmans Langkah yang harus ditempuh lewat metode ini adalah: Regresikan variabel regressan dengan variabel regressor Ambil nilai mutlak disturbance term error dan lakukan ranking terhadap nilai disturbance term error dan ranking nilai variabel regressan atau variabel regressor untuk menghitung koefisien korelasi Spearman (). Nilai d dari koefisien korelasi Spearman dihitung berdasar selisih ranking variabel regressan atau variabel regressor. Rumus koefisien korelasi Spearmans (rumus pertama dipakai jika tidak terjadi urutan ranking yang sama, n tier):

dan

Uji koefisien korelasi Spearman dengan distribusi t pada nilai df=n-2, jika signifikan, berarti ada masalah heterokedastisitas

Metode Chi-Kuadrat Untuk Uji Normalitas


Uji chi-kuadrat digunakan jika ukuran sampel (n 30).Metode Chi-Square atau uji Goodness of fit Distribution Normal, menggunakan pendekatan penjumlahan penyimpangan data observasi tiap kelas dengan nilai yang diharapkan. Langkah-Langkah pengujian : -Rumusan Hipotesis Ho : sampel berasal dari populasi berdistribusi normal H1 : sampel tidak berasal dari populasi berdistribusi normal : taraf nyata Data disusun dalam distribusi frekuensi sebagai berikut :

kelas a-b c-d ... k-l

interval

fi=Oi f1 f2 ... fk

xi a' b'=c' ... l' z1 z2 ... zk

pi

Ei=pi.d

Keterangan : xi s zi pi Ei d = batas bawah kelas = simpangan baku = angka baku = luas daerah antara dua harga = nilai ekspetasi atau harapan =jumlah frekuensi (fi)

Statistik Uji :

Kriteria uji : tolak Ho jika hitung , db = k g 1 (k = banyak kelas interval; g = banyak parameter = 2).jadi db = k 3, terima dalam hal lainya. Persyaratan : a.data tersusun berkelompok atau dikelompokkan dalam tabel distribusi frekuensi.

b.cocok untuk data dengan ukuran sampel (n 30) c.setiap sel harus terisi dan yang kurang dari 5 digabungkan.

Signifikansi Signifikansi uji,nilai hitung dibandingkan dengan tabel (Chi-Square) Jika nilai hitung kurang dari nilai tabel, maka diterima dan ditolak. Jika nilai hitung lebih besar dari nilai tabel, maka ditolak dan diterima. Contoh soal :

TINGGI BADAN MASYARAKAT KALIMAS PADA TAHUN 1990 No Tinggi Badan Jumlah 1 2 3 4 5 6 jumlah 140-149 150-159 160-169 170-179 180-189 190-199 6 22 39 25 7 1 100

Selidikilah dengan = 5% apakah data diatas berdistribusi normal? Jawab : Ho = data berdistribusi normal H1 = data tidak berdistribusi normal = 5% = 0,05 No Kelas Interval 1 2 3 4 5 6 140-149 150-159 160-169 170-179 180-189 190-199 200 Jumlah (d) rata-rata = 165,3 fi = Oi 6 22 39 25 7 1 xi 139,5 149,5 159,5 169,5 179,5 189,5 199,5 100 -2,49 -1,52 -0,56 0,40 1,37 2,33 3,30 pi 0,00640,0643=0,0579 0,06430,2877=0,2234 0,28770,6554=0,3677 0,65540,9147=0,2593 0,91470,9901=0,0754 0,99010,9995=0,0094 Ei=pi.d 5,79 22,34 36,77 25,93 7,54 0,94

= 10,36

Statistik Uji :

= (6 5,79)2/5,79 + (22 22,34)2/22,34 + (39 36,77)2/36,77 + (25 25,93)2/25,93 + (7 7,54)2/7,54 + (1 0,94)2/0,94

= 0,0076 + 0,0052 + 0,1352 + 0,0333 + 0,0387 + 0,0038 = 0,2238 = 0,05, db = k 3 = 6 3 = 3, maka berdasarkan Tabel 3 = 7,81. Kriteria Uji : tolak Ho jika hitung terima dalam hal lainnya , ternyata hitung = 0,2238 > = 7,81.

Вам также может понравиться