Вы находитесь на странице: 1из 9

ANALISIS REGRESI LINIER

Untuk Memenuhi Salah Satu Tugas Mata Kuliah Biostatistika

Oleh
RINI WAHYUNI
C1AA16085

PROGRAM STUDI SARJANA KEPERAWATAN


SEKOLAH TINGGI ILMU KESEHATAN SUKABUMI
2019
ANALISIS REGRESI LINIER

A. Regresi
Regresi secara umum adalah sebuah alat statistik yang memberikan
penjelasan tentang pola hubungan (model) antara dua variabel atau lebih.
Dalam analisis regresi, akan dikembangkan sebuah estimating equation
(persamaan regresi) yaitu suatu formula matematika yang mencari nilai
variabel dependen dari nilai variabel independen yang diketahui. Dalam
analisis regresi dikenal 2 jenis variabel yaitu:
1. Variabel respon disebut juga variabel dependen yaitu variabel yang
keberadaannya dipengaruhi oleh variabel lainnya dan dinotasikan dengan
variabel .
2. Variabel prediktor disebut juga dengan variabel independen yaitu variabel
yang bebas (tidak dipengaruhi oleh variabel lainnya) dan dinotasikan
dengan
Untuk mempelajari hubugan–hubungan antara variabel bebas maka
regresi linier terdiri dari dua bentuk, yaitu:
1. Analisis regresi sederhana (simple analysis regression)
2. Analisis regresi berganda (Multiple analysis regression)
Disebut regresi sederhana jika hanya ada satu variabel independen,
sedangkan regresi berganda jika ada lebih dari satu variabel independen.
Tujuan utama regresi adalah untuk membuat perkiraan nilai suatu variabel
(variabel dependen) jika nilai variabel yang lain yang berhubungan dengannya
(variabel lainnya) sudah ditentukan. Analisis regresi setidak-tidaknya memiliki
3 kegunaan, yaitu untuk tujuan deskripsi dari fenomena data atau kasus yang
sedang diteliti, untuk tujuan kontrol, serta untuk tujuan prediksi. Regresi
mampu mendeskripsikan fenomena data melalui terbentuknya suatu model
hubungan yang bersifatnya numerik. Regresi juga dapat digunakan untuk
melakukan pengendalian (kontrol) terhadap suatu kasus atau hal-hal yang
sedang diamati melalui penggunaan model regresi yang diperoleh. Selain itu,
model regresi juga dapat dimanfaatkan untuk melakukan prediksi untuk
variabel terikat. Namun yang perlu diingat, prediksi di dalam konsep regresi
hanya boleh dilakukan di dalam rentang data dari variabel variabel bebas yang
digunakan untuk membentuk model regresi tersebut.

B. Perbedaan Regresi dengan Korelasi


1. Korelasi hanya menunjukkan sekedar hubungan sedangkan Regresi
menunjukkan hubungan pengaruh.
2. Dalam korelasi variabel tidak ada istilah tergantung dan variabel bebas
sedangkan Dalam regresi terdapat istilah tergantung dan variabel bebas.

C. Analisis Regresi Linier Sederhana


Analisis regresi sederhana merupakan hubungan antara dua variabel
yaitu variabel bebas (variable independent) dan variabel tak bebas (variabel
dependent). Regresi linier sederhana digunakan untuk mendapatkan hubungan
matematis dalam bentuk suatu persamaan antara variabel tak bebas tunggal
dengan variabel bebas tunggal. Regresi linier sederhana digunakan untuk
melakukan pengujian hubungan antara variabel dependen (tergantung) dengan
sebuah variabel independen (bebas) saja.
Regresi linier sederhana hanya memiliki satu peubah yang dihubungkan
dengan satu peubah tidak bebas. Model regresinya adalah linier dalam
parameter.Nilai rata-rata dari error adalah nol. Error berdistribusi normal.
Adapun persamaan dari regresi sederhana adalah:

Di mana: Y = Variabel tak bebas (dependen)


X = Variabel bebas (independen)
a = Parameter Intercep (Nilai Konstanta
b = Parameter Koefisisen Regresi Variabel Bebas
Menentukan koefisien persamaan a dan b dapat dengan menggunakan
metode kuadrat terkecil, yaitu cara yang dipakai untuk menentukan koefisien
persamaan a dan b dari jumlah pangkat dua (kuadrat) antara titik-titik dengan
garis regresi yang dicari yang terkecil. Dengan demikian, dapat ditentukan:

n( XY )  ( X )( Y )
b
n(  X 2 )  (  X ) 2

a
 Y  b( X )
n

D. Koefisien Determinasi
Koefisien Determinasi

R2  1
 (Y  Yˆ ) 2

 (Y  Y ) 2

Koefisien Determinasi Disesuaikan (Adjusted)


P(1  R 2 )
Radj R 
2

N  P 1

1. Koefisien Determinasi: Seberapa besar kemampuan semua variabel bebas


dalam menjelaskan varians dari variabel terikatnya. Secara sederhana
koefisien determinasi dihitung dengan mengkuadratkan koefisien korelasi
(R). Nilai R Square adalah antara 0 sampai dengan 1.
2. R Square (R Kuadrat) :Nilainya akan selalu meningkat dengan adanya
penambahan variabel bebas dalam suatu model. Hal ini akan menimbulkan
bias, karena jika ingin memperoleh model dengan R tinggi, seorang
penelitian dapat dengan sembarangan menambahkan variabel bebas dan
nilai R akan meningkat, tidak tergantung apakah variabel bebas tambahan
itu berhubungan dengan variabel terikat atau tidak.
3. Adjusted R Square: Interpretasinya sama dengan R Square, akan tetapi
nilai Adjusted R Square dapat naik atau turun dengan adanya penambahan
variabel baru, tergantung dari korelasi antara variabel bebas tambahan
tersebut dengan variabel terikatnya. Nilai Adjusted R Square dapat bernilai
negatif, sehingga jika nilainya negatif, maka nilai tersebut dianggap 0, atau
variabel bebas sama sekali tidak mampu menjelaskan varians dari variabel
terikatnya.

E. Analisis Regresi Linier Berganda


Regresi linier berganda adalah analisis regresi yang menjelaskan
hubungan antara peubah respon (variabel dependen) dengan faktor-faktor yang
mempengaruhi lebih dari satu prediktor (variabel independen).
Regresi linier berganda hampir sama dengan regresi linier sederhana,
hanya saja pada regresi linier berganda variabel bebasnya lebih dari satu
variabel penduga. Tujuan analisis regresi linier berganda adalah untuk
mengukur intensitas hubungan antara dua variabel atau lebih dan membuat
prediksi perkiraan nilai Y atas X. Adapun persaman regresi berganda adalah:

Metode yang digunakan untuk mengestimasi parameter model regresi


linier berganda adalah metode kuadrat terkecil atau sering juga disebut dengan
metode ordinary least square (OLS). Metode OLS ini bertujuan
meminimumkan jumlah kuadrat error. Penaksir OLS merupakan penaksir yang
tidak bias, linier dan terbaik (best linear unbiased estimator/BLUE).
F. Pengujian Parameter Model Regresi Linier Berganda
1. Pengujian Parameter Secara Serentak (Simultan)
a. Membuat hipotesis
b. Menentukan tingkat signifikansi (α)
c. Menentukan statistik uji
d. Menentukan daerah kritik (penolakan H0)
e. Menarik kesimpulan
2. Pengujian Parameter Secara Individu (Parsial)
a. Membuat hipotesis
b. Menentukan tingkat signifikansi (α)
c. Menentukan statistik uji
d. Menentukan daerah kritik (penolakan H0)
e. Menarik kesimpulan

G. Asumsi Analisis Regresi Linier Berganda


1. Model regresinya adalah linier dalam parameter.
2. Nilai rata-rata dari error adalah nol.
3. Variansi dari error adalah konstan (homoskedastik).
4. Tidak terjadi autokorelasi pada error.
5. Tidak terjadi multikolinieritas pada variabel bebas.
6. Error berdistribusi normal.

H. Pelanggaran Asumsi Analisis Regresi Linier Berganda


1. Multikolinieritas
Multikolinieritas adalah terjadinya hubungan linier antara variabel
bebas dalam suatu model regresi linier berganda. Hubungan linier antara
variabel bebas dapat terjadi dalam bentuk hubungan linier yang
sempurna (perfect) dan hubungan linier yang kurang sempurna
(imperfect).
Adapun dampak adanya multikolinieritas dalam model regresi
linier berganda adalah:
a. Penaksir OLS masih bersifat BLUE, tetapi mempunyai variansi dan
kovariansi yang besar sehingga sulit mendapatkan taksiran
(estimasi) yang tepat.
b. Akibat penaksir OLS mempunyai variansi dan kovariansi yang yang
besar, menyebabkan interval estimasi akan cenderung lebih lebar
dan nilai hitung statistik uji t akan kecil, sehingga membuat variabel
bebas secara statistik tidak signifikan mempengaruhi variabel tidak
bebas.
c. Walaupun secara individu variabel bebas tidak berpengaruh
terhadap variabel tidak bebas melalui uji t, tetapi nilai koefisien
determinasi (R2) masih bisa relatif tinggi.
Selanjutnya untuk mendeteksi adanya multikolinieritas dalam
model regresi linier berganda dapat digunakan nilai variance inflation
factor (VIF) dan tolerance (TOL). Dengan ketentuan jika nilai VIF
melebihi angka 10, maka terjadi multikolinieritas dalam model regresi.
Kemudian jika nilai TOL sama dengan 1, maka tidak terjadi
multikolinieritas dalam model regresi.

2. Heteroskedastis
Heteroskedastisitas adalah variansi dari error model regresi tidak
konstan atau variansi antar error yang satu dengan error yang lain
berbeda. Dampak adanya heteroskedastisitas dalam model regresi:
a. Walaupun estimator OLS masih linier dan tidak bias, tetapi tidak lagi
mempunyai variansi yang minimum dan menyebabkan perhitungan
standard error metode OLS tidak bisa dipercaya kebenarannya.
b. Selain itu interval estimasi maupun pengujian hipotesis yang
didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya untuk
evaluasi hasil regresi.
c. Akibat dari dampak heteroskedastisitas tersebut menyebabkan
estimator OLS tidak menghasilkan estimator yang BLUE dan hanya
menghasilkan estimator OLS yang linear unbiased estimator (LUE).
Cara yang dapat digunakan untuk mendeteksi adanya
heteroskedastisitas dalam model regresi adalah dengan Metode Glejser,
Metode Park dan Scatter Plot.

3. Autokorelasi
Autokorelasi adalah terjadinya korelasi antara satu variabel error
dengan variabel error yang lain. Autokorelasi seringkali terjadi pada data
time series dan dapat juga terjadi pada data cross section tetapi jarang.
Dampak dari adanya autokorelasi dalam model regresi adalah
sama dengan dampak dari heteroskedastisitas: Walaupun estimator OLS
masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi yang
minimum dan menyebabkan perhitungan standard error metode OLS
tidak bisa dipercaya kebenarannya. Selain itu interval estimasi maupun
pengujian hipotesis yang didasarkan pada distribusi t maupun F tidak bisa
lagi dipercaya untuk evaluasi hasil regresi. Akibat dari dampak adanya
autokorelasi dalam model regresi menyebabkan estimator OLS tidak
menghasilkan estimator yang BLUE dan hanya menghasilkan estimator
OLS yang LUE.
Untuk mendeteksi adanya autokorelasi dalam model regresi linier
berganda dapat digunakan metode Durbin-Watson. Durbin-Watson telah
berhasil mengembangkan suatu metode yang digunakan untuk
mendeteksi adanya masalah autokorelasi dalam model regresi linier
berganda. Kemudian Durbin-Watson berhasil menurunkan nilai kritis
batas bawah (dL) dan batas atas (dU) sehingga jika nilai d hitung dari
persamaan (6.1) terletak di luar nilai kritis ini, maka ada atau tidaknya
autokorelasi baik positif atau negatif dapat diketahui.
Deteksi autokorelasi pada model regresi linier berganda dengan
metode Durbin-Watson adalah sebagai berikut:

Вам также может понравиться