statistik

statistik

Jumat, 21 November 2014

Analisis Regresi


Pengertian Analisis Regresi
            
       Analisis regresi adalah kajian terhadap hubungan satu variable yang disebut dengan variable yang diterangkan (the explained variable) dengan satu atau dua variable yang menerangkan (the explanatory). Variabel pertama disebut juga sebagai variable tergantung dan variable kedua disebut juga sebagai variable bebas.Analisis regresi merupakan salah satu analisis yang bertujuan untuk mengetahui pengaruh suatu variabel terhadap variabel lain.Sir Francis Galton (1822 – 1911), memperkenalkan model peramalan, penaksiran, atau pendugaan, yang selanjutnya dinamakan regresi, sehubungan dengan penelitiannya terhadap tinggi badan manusia. Penelitian tersebut membandingkan antara tinggi anak laki-laki dan tinggi badan ayahnya. Galton menunjukkan bahwa tinggi badan anak laki-laki dari ayah yang tinggi setelah beberapa generasi cenderung mundur (regressed) mendekati nilai tengah populasi. Dengan kata lain, anak laki-laki dari ayah yang badannya sangat tinggi cenderung lebih pendek dari pada ayahnya, sedangkan anak laki-laki dari ayah yang badannya sangat pendek cenderung lebih tinggi dari ayahnya. (Ronal E. Walpole).
            Hubungan antar variabel dapat berupa hubungan linier ataupun hubungan tidak linier. Misalnya, berat badan orang dewasa sampai pada tahap tertentu bergantung pada tinggi badan, keliling lingkaran bergantung pada diameternya, dan tekanan gas bergantung pada suhu dan volumenya. Atau dalam ilmu pemasaran, nilai penjualan akan bergantung pada biaya promosi. Hubungan-hubungan itu bila dinyatakan dalam bentuk matematis akan memberikan persamaan-persamaan tertentu. Untuk dua variabel, hubungan liniernya dapat dinyatakan dalam bentuk persamaan linier, yakni: Y = a + bX. Hubungan antara dua variabel pada persamaan linier jika digambarkan secara (scatter diagram), semua nilai Y dan X akan berada pada suatu garis lurus. Dan dalam ilmu ekonomi, garis itu dinamakan garis regresi.
            Berkaitan dengan analisis regresi ini, setidaknya ada empat kegiatan yang lazim dilaksanakan yakni :
1.      Mengadakan estimasi terhadap parameter berdasarkan data empiris.
2.      Menguji berapa besar variasi variabel dependen dapat diterangkan oleh variasi independen.
3.      Menguji apakah estimasi parameter tersebut signifikan atau tidak.
4.      Melihat apakah tanda magnitude dari estimasi parameter cocok dengan teori.

Tujuan dan Kegunaan Analisis Regresi
             Analisis regresi dalam statistika adalah salah satu metode untuk menentukan hubungan sebab akibat antara satu variabel dengan variabel yang lain. Analisis regresi adalah salah satu analisis yang paling populer dan luas pemakaiannya. Hampir semua bidang ilmu yang memerlukan analisis. Analisis regresi dan analisis korelasi dikembangkan untuk mengkaji dan mengukur hubungan antara dua variabel atau lebih. Dalam analisis regresi dikembangkan persamaan estimasi untuk mendeskripsikan pola atau fungsi hubungan antara variabel-variabel. Sesuai dengan namanya, persamaan estimasi atau persamaan regresi itu digunakan untuk mengestimasi nilai dari suatu variabel berdasarkan nilai variabel lainnya. Variabel yang di estimasi itu disebut variabel dependen (atau variabel terikat) sedangkan variabel yang diperkirakan memengaruhi variabel dependen itu disebut variabel independen (atau variabel bebas).
          Ada beberapa tujuan penggunaan analisis regresi, antara lain:
a.       Membuat estimasi rata-rata dan nilai variabel tergantung dengan didasari pada nilai variabel bebas.
b.       Menguji hipotesis karakteristik dependensi.
c.     Untuk meramalkan nilai rata-rata variabel bebas dengan didasarkan pada nilai variabel bebas diluar jangkauan sample.

Persyaratan Penggunaan Regresi
         Model kelayakan  regresi linear didasarkan pada hal-hal sebagai berikut:
1.      Model regresi dikatakan layak  jika angka signifikansi pada ANOVA sebesar < 0.05.

2.   Predictor yang digunakan sebagai variabel bebas harus layak. Kelayakan ini diketahui jika angka   Standard Error of Estimate < Standard Deviation.

3.      Koefesien regresi harus signifikan. Pengujian dilakukan dengan Uji T. Koefesien regresi signifikan jika T hitung > T tabel (nilai kritis).

4.      Tidak boleh terjadi multikolinieritas, artinya tidak boleh terjadi korelasi yang sangat tinggi atau sangat rendah antar variabel bebas. Syarat ini hanya berlaku untuk regresi linier berganda dengan variabel bebas lebih dari satu.

5.      Tidak terjadi otokorelasi. Terjadi otokorelasi jika angka Durbin dan Watson (DB) sebesar < 1 dan >3.

6.      Keselerasan model regresi dapat diterangkan dengan menggunakan nilai r2 semakin besar nilai tersebut maka model semakin baik. Jika nilai mendekati 1 maka model regresi semakin baik. Nilai r2 mempunyai karakteristik diantaranya: 1) selalu positif, 2) Nilai r2 maksimal sebesar 1. Jika Nilai r2 sebesar 1 akan mempunyai arti kesesuaian yang sempurna. Maksudnya seluruh variasi dalam variabel Y dapat diterangkan oleh model regresi. Sebaliknya jika r2 sama dengan 0, maka tidak ada hubungan linier antara X dan Y.

7.      Terdapat hubungan linier antara variabel bebas (X) dan variabel tergantung (Y)

8.      Data harus berdistribusi normal

9.      Data berskala interval atau rasio

10.  Kedua variabel bersifat dependen, artinya satu variabel merupakan variabel bebas (disebut juga sebagai variabel predictor) sedang variabel lainnya variabel tergantung (disebut juga sebagai variabel response).

Regresi Linear dengan Variabel Moderating
          Variabel moderating adalah variabel yang memperkuat atau memperlemah hubungan antara satu variabel dengan variabel lain. Sebagai contoh: seorang suami menyayangi istrinya. Dengan hadirnya seorang anak, maka rasa sayang tersebut bertambah. Berarti variabel anak merupakan moderating antara rasa saya suami terhadap istri. Contoh lain: kompensasi memperkuat pengaruh antara kepuasan kerja terhadap kinerja. Artinya kepuasan kerja berpengaruh terhadap kinerja, dan adanya kompensasi yang tinggi maka pengaruh antara kepuasan kerja terhadap kinerja menjadi lebih meningkat. Dalam hal ini, kompensasi bisa saja berpengaruh terhadap kinerja bisa saja tidak. Metode analisis regresi linear dengan variabel moderating antara lain:
1.      Multiple Regression Analysis (MRA)
Metode ini dilakukan dengan menambahkan variabel perkalian antara variabel bebas dengan variabel moderatingnya, sehingga persamaan umumnya adalah sebagai berikut: Y = a + b1 X1 + b2 X2 + b3 X1 X2 dengan Y adalah kinerja, X1 adalah kepuasan kerja, X2 kompensasi dan X1 X2 adalah perkalian antara kepuasan kerja dengan kompensasi. Hipotesis moderating diterima jika variabel X1 X2 mempunyai pengaruh signifikan terhadap Y, tidak tergantung apakah X1 dan X2 mempunyai pengaruh terhadap Y atau tidak. Model ini biasanya menyalahi asumsi multikolinearitas atau adanya korelasi yang tinggi antara variabel bebas dalam model regresi, sehingga menyalahi asumsi klasik. Hampir tidak ada model MRA yang terbebas dari masalah multikolinearitas, sehingga sebenarnya model ini tidak disarankan untuk dipergunakan.

2.      Absolut residual
Model ini mirip dengan MRA, tetapi variabel moderating didekati dengan selisih mutlak (absolut residual) antara variabel bebas dengan variabel moderatingnya. Penerimaan hipotesis juga sama, dan model ini masih riskan terhadap gangguan multikolinearitas meskipun risiko itu lebih kecil dari pada dengan metode MRA.

3.      Residual
Model ini menggunakan konsep lack of fit yaitu hipotesis moderating diterima terjadi jika terdapat ketidakcocokan dari deviasi hubungan linear antara variabel independen. Langkahnya adalah dengan meregresikan antara kepuasan kerja terhadap kompensasi dan dihitung nilai residualnya. Pada program SPSS dengan klik Save pada regreesion, lalu klik pada usntandardized residual. Nilai residual kemudian diambil nilai absolutnya lalu diregresikan antara kinerja terhadap absolut residual.

Uji Hipotesis
            Pengujian hipotesis dapat didasarkan dengan menggunakan dua hal, yaitu; tingkat signifikan atau probabilitas dan tingkat kepercayaan atau confidence interval. Didasarkan tingkat signifikansi pada umumnya orang menggunakan 0,05. Kisaran tingkat signifikan mulai dari 0,01 sampai dengan 0,1. Yang dimaksud dengan tingkat signifikan adalah probabilitas melakukan kesalahan tipe 1, yaitu kesalahan menolak hipotesis ketika hipotesis tersebut benar. Tingkat kepercayaan pada umumnya ialah sebesar 95%, yang dimaksud dengan tingkat kepercayaan ialah tingkat dimana sebesar 95% nilai semple akan mewakili nilai populasi dimana sample berasal. Dalam melakukan uji hipotesis terdapat dua hipotesis, yaitu:
HO (hipotesis nol) dan H1 (hipotesis alternative)
Contoh uji hipotesis misalnya rata-rata produktivitas pegawai sama dengan 10 (x = 10), maka bunyi hipotesisnya ialah:
a.       HO: rata-rata prokdutivitas pegawai sama dengan 10
b.      H1 : rata-rata prokdutivitas pegawai tidak sama dengan 10

Beberapa hal yang harus diperhatikan dalam uji hipotesis ialah:
a.       Untuk pengujian hipotesis kita menggunakan data sample.

b.      Dalam pengujian akan menghasilkan dua kemungkinan, yaitu pengujian signifikan secara statistic jika kita menlak HO dan pengujian tidak signifikan secara statistic jika kita menerima H0.

c.       Jika kita menggunakan nilai t, maka jika nilai t yang semakin besar atau menajuhi 0, kita akan cenderung menolak H0, sebaliknya jika nilai t semakin kecil atau mendekati 0 kita akan cenderung menerima H0.