BAB I
PENDAHULUAN
1.1 Latar
Belakang Masalah
Regresi
linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh antara
satu atau beberapa variabel terhadap satu buah variabel. Variabel yang
mempengaruhi sering disebut variabel bebas, variabel independen atau variabel
penjelas. Variabel yang dipengaruhi sering disebut dengan variabel terikat atau
variabel dependen. Regresi linear hanya dapat digunakan pada skala
interval dan ratio.
Secara umum
regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu dengan
satu buah variabel bebas dan satu buah variabel terikat; dan regresi linear
berganda dengan beberapa variabel bebas dan satu buah variabel terikat.
Analisis regresi linear merupakan metode statistik yang paling jamak
dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi.
Program komputer yang paling banyak digunakan adalah SPSS (Statistical Package For
Service Solutions).
1.2 Rumusan Masalah
Dari
latar belakang diatas maka rumusan dalam penulisan makalah ini adalah
“bagaimana mendeskripsikan tentang analisis regresi”.
1.3 Tujuan
Berdasarkan
latar belakang diatas maka tujuan dalam penulisan makalah ini adalah untuk mengetahui
tentang analisis regresi.
BAB II
KAJIAN
PUSTAKA
2.1 Regresi Linear Sederhana
Analisis
regresi linear sederhana dipergunakan untuk mengetahui pengaruh antara satu
buah variabel bebas terhadap satu buah variabel terikat. Persamaan umumnya adalah:
Y = a + b X.
Dengan Y
adalah variabel terikat dan X adalah variabel bebas. Koefisien a adalah
konstanta (intercept) yang merupakan titik potong antara garis regresi dengan
sumbu Y pada koordinat kartesius.
Langkah
penghitungan analisis regresi dengan menggunakan program SPSS adalah: Analyse
--> regression --> linear. Pada jendela yang ada, klik variabel terikat
lalu klik tanda panah pada kota dependent. Maka variabel tersebut akan masuk ke
kotak sebagai variabel dependen. Lakukan dengan cara yang sama untuk variabel
bebas (independent). Lalu klik OK dan akan muncul output SPSS.
Interpretasi Output
- Koefisien determinasi
Koefisien determinasi mencerminkan seberapa besar kemampuan variabel bebas dalam menjelaskan
varians variabel terikatnya. Mempunyai nilai antara 0 – 1 di mana nilai yang
mendekati 1 berarti semakin tinggi kemampuan variabel bebas dalam menjelaskan
varians variabel terikatnya.
- Nilai t hitung dan signifikansi
Nilai t hitung > t tabel
berarti ada pengaruh yang signifikan antara variabel bebas terhadap variabel
terikat, atau bisa juga dengan signifikansi di bawah 0,05 untuk penelitian
sosial, dan untuk penelitian bursa kadang-kadang digunakan toleransi sampai
dengan 0,10.
- Persamaan regresi
Sebagai ilustrasi variabel
bebas: Biaya promosi dan variabel terikat: Profitabilitas (dalam juta rupiah)
dan hasil analisisnya Y = 1,2 + 0,55 X. Berarti interpretasinya:
1.
Jika
besarnya biaya promosi meningkat sebesar 1 juta rupiah, maka profitabilitas
meningkat sebesar 0,55 juta rupiah.
2.
Jika biaya
promosi bernilai nol, maka profitabilitas akan bernilai 1,2 juta rupiah.
Interpretasi
terhadap nilai intercept (dalam contoh ini 1,2 juta) harus hati-hati dan sesuai
dengan rancangan penelitian. Jika penelitian menggunakan angket dengan skala
likert antara 1 sampai 5, maka interpretasi di atas tidak boleh dilakukan
karena variabel X tidak mungkin bernilai nol. Interpretasi dengan skala likert
tersebut sebaiknya menggunakan nilai standardized coefficient sehingga
tidak ada konstanta karena nilainya telah distandarkan.
Contoh:
Pengaruh antara kepuasan (X) terhadap kinerja (Y) dengan skala likert antara 1
sampai dengan 5. Hasil output yang digunakan adalah standardized
coefficients sehingga Y = 0,21 X dan diinterpretasikan bahwa peningkatan
kepuasan kerja akan diikuti dengan peningkatan kinerja atau penurunan kepuasan
kerja juga akan diikuti dengan penurunan kinerja. Peningkatan kepuasan kerja
dalam satu satuan unit akan diikuti dengan peningkatan kinerja sebesar 0,21
(21%).
2.2 Regresi Linear Berganda
Analisis
regresi linear berganda sebenarnya sama dengan analisis regresi linear
sederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan umumnya adalah:
Y = a + b1 X1 + b2
X2 + .... + bn Xn.
Dengan Y
adalah variabel bebas, dan X adalah variabel-variabel bebas, a adalah konstanta
(intersept) dan b adalah koefisien regresi pada masing-masing variabel bebas.
Interpretasi
terhadap persamaan juga relatif sama, sebagai ilustrasi, pengaruh antara
motivasi (X1), kompensasi (X2) dan kepemimpinan (X3) terhadap kepuasan kerja
(Y) menghasilkan persamaan sebagai berikut:
Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3
- Jika variabel motivasi meningkat dengan asumsi variabel kompensasi dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat
- Jika variabel kompensasi meningkat, dengan asumsi variabel motivasi dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat.
- Jika variabel kepemimpinan meningkat, dengan asumsi variabel motivasi dan kompensasi tetap, maka kepuasan kerja juga akan meningkat.
Interpretasi terhadap konstanta (0,235) juga harus dilakukan secara
hati-hati. Jika pengukuran variabel dengan menggunakan skala Likert antara 1
sampai dengan 5 maka tidak boleh diinterpretasikan bahwa jika variabel
motivasi, kompensasi dan kepemimpinan bernilai nol, sebagai ketiga variabel
tersebut tidak mungkin bernilai nol karena Skala Likert terendah yang digunakan
adalah 1.
Analisis regresi linear berganda memerlukan pengujian secara serempak
dengan menggunakan F hitung. Signifikansi ditentukan dengan membandingkan F
hitung dengan F tabel atau melihat signifikansi pada output SPSS. Dalam
beberapa kasus dapat terjadi bahwa secara simultan (serempak) beberapa variabel
mempunyai pengaruh yang signifikan, tetapi secara parsial tidak. Sebagai
ilustrasi: seorang penjahat takut terhadap polisi yang membawa pistol
(diasumsikan polisis dan pistol secara serempak membuat takut penjahat). Akan
tetapi secara parsial, pistol tidak membuat takut seorang penjahat. Contoh
lain: air panas, kopi dan gula menimbulkan kenikmatan, tetapi secara parsial,
kopi saja belum tentu menimbulkan kenikmatan.
Penggunaan metode analisis regresi linear berganda memerlukan uji asumsi klasik yang secara statistik harus dipenuhi. Asumsi klasik yang sering digunakan
adalah asumsi normalitas, multikolinearitas, autokorelasi, heteroskedastisitas
dan asumsi linearitas..
Langkah-langkah yang lazim dipergunakan dalam analisis regresi linear
berganda adalah 1) koefisien determinasi; 2) Uji F dan 3 ) uji t. Persamaan regresi sebaiknya dilakukan di akhir
analisis karena interpretasi terhadap persamaan regresi akan lebih akurat jika
telah diketahui signifikansinya. Koefisien determinasi sebaiknya menggunakan Adjusted R Square dan jika bernilai negatif maka uji F dan uji t tidak dapat dilakukan.
Bentuk-bentuk regresi yang juga sering digunakan dalam penelitian adalah regresi logistik atau regresi ordinal.
Pertanyaan-pertanyaan yang sering muncul
- Dalam uji regresi sederhana apakah perlu menginterpretasikan nilai F hitung?
Uji F adalah uji kelayakan model (goodness of fit) yang harus
dilakukan dalam analisis regresi linear. Untuk analisis regresi linear
sederhana Uji F boleh dipergunakan atau tidak, karena uji F akan sama hasilnya
dengan uji t.
- Kapan menggunakan uji satu arah dan kapan menggunakan uji dua arah?
Penentuan arah pengujian adalah berdasarkan masalah penelitian, tujuan penelitian dan perumusan
hipotesis. Jika hipotesis sudah menentukan arahnya, maka sebaiknya digunakan
uji satu arah, tetapi jika hipotesis belum menentukan arah, maka sebaiknya
menggunakan uji dua arah. Penentuan arah pada hipotesis berdasarkan tinjauan
literatur. Contoh hipotesis dua arah: Terdapat pengaruh antara kepuasan
terhadap kinerja. Contoh hipotesis satu arah: Terdapat pengaruh positif antara
kepuasan terhadap kinerja. Nilai t tabel juga berbeda antara satu arah dan dua
arah. Jika menggunakan signifikansi, maka signifikansi hasil output dibagi dua
terlebih dahulu, baru dibandingkan dengan 5%.
- Apa bedanya korelasi dengan regresi?
Korelasi adalah
hubungan dan regresi adalah pengaruh. Korelasi bisa
berlaku bolak-balik, sebagai contoh A berhubungan dengan B demikian juga B
berhubungan dengan A. Untuk regresi tidak bisa dibalik, artinya A berpengaruh
terhadap B, tetapi tidak boleh dikatakan B berpengaruh terhadap A. Dalam
kehidupan sehari-hari kedua istilah itu (hubungan dan pengaruh) sering
dipergunakan secara rancu, tetapi dalam ilmu statistik sangat berbeda. A
berhubungan dengan B belum tentu A berpengaruh terhadap B. Tetapi jika A
berpengaruh terhadap B maka pasti A juga berhubungan dengan B. (Dalam analisis
lanjut sebenarnya juga ada pengaruh yang bolak-balik yang disebut dengan recursive,
yang tidak dapat dianalisis dengan analisis regresi tetapi menggunakan (structural equation modelling).
2.3 Analisis Regresi Linier Ganda
Analisis
regresi linier ganda terdiri dari satu variabel dependen dan beberapa variabel
independen. Analisis regresi linier ganda dinyatakan dengan hubungan persamaan
regresi:
Y’ = a + b1X1
+ b2X2 + ..... + bnXn
(Sudjana
2005: 349).
Keterangan :
X1, X2, ..., Xk : Variabel
independen
Y : Variabel dependen
a : Konstanta
b : Koefisien regresi
Pada
analisis regresi linier ganda ada enam uji pokok, yaitu:
1. Uji Kelinieran
Hipotesis:
H0 :
Persamaan regresi tidak linier
H1 :
Persamaan regresi linier
Berdasarkan pengolahan data
dengan SPSS, jika nilai sig pada output ANOVA
lebih dari α (5%) maka H0 diterima (Trihendradi 2006: 157).
2. Uji Koefisien
Hipotesis:
H0 :
Koefisien regresi tidak signifikan
H1 : Koefisien regresi
signifikan
Berdasarkan pengolahan data
dengan SPSS, jika nilai sig pada output Coefficients
lebih dari α (5%) maka H0 diterima (Trihendradi 2006: 158).
3.
Uji
Normalitas Data
Berdasarkan teori statistika
model linier hanya variabel dependen yang mempunyai distribusi diuji
normalitasnya, sedangkan variabel independen diasumsikan bukan merupakan fungsi
distribusi, jadi tidak perlu diuji normalitasnya. Salah satu cara untuk menguji
kenormalan data yaitu dengan uji Kolmogorov-Smirnov.
Hipotesis:
H0 :
Variabel adalah normal
H1 : Variabel adalah
tidak normal
Berdasarkan pengolahan data
dengan SPSS, jika nilai sig pada output NPar
Tests lebih dari α (5%) maka H0 diterima.
Selain itu kenormalan data dapat
juga dideteksi dari penyebaran data (titik) pada sumbu diagonal dari grafik
atau melihat grafik histograf dari residualnya. Jika data menyebar di sekitar
garis diagonal dan mengikuti arah garis histograf menuju pola distribusi
normal, maka model regresi memenuhi asumsi normalitas (Sukestiyarno 2008: 14).
4. Uji Multikolinearitas
Uji multikolinearitas
bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antara
variabel bebas. Jadi uji multikolinearitas terjadi hanya pada regresi ganda. Model
regresi yang baik seharusnya tidak terjadi korelasi tinggi diantara variabel
bebas. Gejala multikolinearitas dapat dideteksi dengan melihat nilai Variance
Inflasi Factor (VIF) dan tolerance pada output Coefficients. Multikolinearitas
terjadi jika VIF berada di atas 10 dan nilai tolerance di atas 1
(Sukestiyarno 2008: 14).
5.
Uji
Autokorelasi
Uji autokorelasi bertujuan
menguji apakah dalam model regresi linier ada korelasi antar error satu
dengan error yang lainnya. Gejala autokorelasi dapat dideteksi dengan
menggunakan uji Durbin Watson (DW) pada output Model Summary. Ketentuan jika -2 < DW < 2 berarti tidak
terjadi autokorelasi (Sukestiyarno 2008: 14).
6. Uji
Heteroskedastisitas
Heteroskedastisitas terjadi
apabila error atau residual dari model yang diamati tidak
memiliki varian yang konstan dari satu observasi ke observasi lainnya.
Pengujian heteroskedastisitas dilakukan dengan melihat diagram residual
terhadap variabel bebas pada output Scatterplot.
Jika nilai error membentuk pola tertentu tidak bersifat acak terhadap
nol maka dikatakan terjadi heteroskedasti (Sukestiyarno 2008: 14).
Model persamaan regresi linier
ganda dapat dilihat pada output Coefficients.
Sedangkan untuk mengetahui besarnya nilai kontribusi variabel bebas secara
bersama-sama terhadap variabel terikat dapat dilihat pada output Model Summary (Sukestiyarno 2008: 19).
BAB III
KESIMPULAN
Dari penjelasan diatas dapat diambil
kesimpulan bahwa analisis regresi linear
sederhana dipergunakan untuk mengetahui pengaruh antara satu buah variabel
bebas terhadap satu buah variabel terikat. Persamaan umumnya adalah:
Y = a + b X.
Dengan Y
adalah variabel terikat dan X adalah variabel bebas. Koefisien a adalah
konstanta (intercept) yang merupakan titik potong antara garis regresi dengan
sumbu Y pada koordinat kartesius.
Langkah
penghitungan analisis regresi dengan menggunakan program SPSS adalah: Analyse
--> regression --> linear. Pada jendela yang ada, klik variabel terikat
lalu klik tanda panah pada kota dependent. Maka variabel tersebut akan masuk ke
kotak sebagai variabel dependen. Lakukan dengan cara yang sama untuk variabel
bebas (independent). Lalu klik OK dan akan muncul output SPSS.
Dalam analisis regresi linier ganda terdiri dari satu variabel dependen dan
beberapa variabel independen. Analisis regresi linier ganda dinyatakan dengan
hubungan persamaan regresi:
Y’ = a + b1X1
+ b2X2 + ..... + bnXn
DAFTAR
PUSTAKA
Sudjana. 2005. Metoda Statistika. Bandung: Tarsito.
Sugiyono. 2004. Statistik Nonparametris. Bandung: CV Alfabeta.
Sukestiyarno. 2008. Workshop Olah Data Penelitian dengan SPSS.
Semarang: UNNES.
Trihendradi, C. 2006. Langkah Mudah Menguasai Analisis Statistik
Menggunakan SPSS 15. Yogyakarta: Andi Offset.
ConversionConversion EmoticonEmoticon