Custom Search

UJI ASUMSI KLASIK PART 1

Linearitas dan Multikolinearitas

Kata kata regresi berganda tentunya sudah tidak asing lagi bagi orang yang berkecimpung di statistik. Dengan melihat hasil komputer berupa uji F dan Uji T kemudian melihat nilai P value, mulailah kita menginterpretasikan hasil komputer tersebut dengan menganalisis topik yang sedang diangkat.

Tidak lupa juga peranan R-squared yang mencerminkan model tersebut sudah menggambarkan secara keseluruhan atau belum dibandingkan variabel variabel diluar model tersebut (atau disebut dengan error).

Namun, saya rasa masih banyak orang yang menggunakan alat regresi tersebut dan lupa langkah sebelum membaca interpretasi hasil SPSS tersebut. Biasanya mereka langsung melompati tahap input data dan me-run aplikasi dan membacanya tanpa pernah tahu apakah data yang mereka gunakan sudah layak untuk menggunakan regresi sebagai alat analisanya. Jika kita melihat di berbagai sumber terdapat beberapa asumsi yang mesti dipenuhi untuk regresi berganda. Dalam tulisan ini saya akan membahas 2 terlebih dahulu; yakni uji linearitas dan multikolinearitas. Kebetulan saya pernah menggunakan di tulisan yang berjudul “Elastisitas Harga dan Pengaruh Impor Terhadap Produksi Kedelai” (saya akan upload di tulisan selanjutnya)

Uji linearitas

Pada dasarnya regresi berganda adalah sebuah fungsi linear. Jika tidak percaya coba lihat pola baku dari regresi berganda tersebut:
Y = a + b1X1 + b2X2 +….,
Dari bentuk bakunya jelas terlihat bahwa regresi berganda merupakan fungsi linear. Sehingga data yang akan kita gunakan juga harus linear sesuai dengan tujuan penggunaan regresi berganda tersebut.

Uji linearitas merupakan uji yang digunakan untuk menyatakan apakah persamaan linear cocok digunakan pada data yang ada. Uji linearitas ditentukan apabila memenuhi ketentuan nR2 < X2 (chi-square).(n = banyaknya data)

Adapun nilai R2 diperoleh dari: R2 = SSR / SST,
SSR adalah penjumlahan kuadrat simpangan antara data prediksi dan rata-rata data aktualnya. Sedangkan SST adalah hasil penjumlahan kuadrat simpangan antara data aktual dan rata-rata data aktualnya.
Nilai SSR rasanya tidak terlalu sulit. Cara yang mudah adalah meregresikan dulu datanya, kemudian ambil data errornya atau disebut sebagai (selisih antara data prediksi dan data aktual) kemudian masing masing nilai error tersebut di kuadratkan dan dijumlahkan.
Nilai SST juga tidak sulit. Tentukan nilai rata-rata Y. dan setiap data Y dikurangi Y rata-rata tersebut. Masing-masing hasilnya dikuadratkan dulu, kemudian dijumlahkan.
Tabel X2(chi-square) saya asumsikan semua sudah memiliki dan bisa membaca tabel. 🙂
Lalu, langkah apa yang akan kita lakukan jika ternyata data kita tidak linear?
Bisa dilakukan dengan cara “menyetrika”, artinya data Y dan data X kita “Ln” kan. Kemudian dicoba lagi uji linearitasnya.
Tapi sebelum kesana, sebaiknya gunakan plot histogram nilai Y, untuk mengetahui sebaran data. Barangkali ada data yang perlu dihilangkan karena tidak mengikuti pola linearitas seperti data yang lain.
Atau jika data tersebut merupakan data time series, bisa menggunakan batasan waktu untuk beberapa model. Misal dipotong setiap 10 tahun sekali, atau per 15 tahun.

Baca Juga  Membaca Hasil Output Lindo Pada Linear Programming

Multikolinearitas

Uji multikolinearitas dilakukan untuk menguji apakah terdapat korelasi yang kuat antara variabel bebas. Jika terdapat dua variabel bebas dimana kedua variabel bebas tersebut berkorelasi sangat kuat, maka persamaan regresinya cukup diwakili oleh salah satu variabel.

Misalnya kita menggunakan variabel luas lahan, maka sebaiknya jangan menggunakan variabel produktivitas lahan sebagai variabel lainnya. Dari rumus yang digunakan bahwa produktivitas lahan merupakan pembagian hasil produksi dengan luas lahan saja sudah bisa diketahui bahwa dua variabel tersebut memiliki hubungan yang kuat. Artinya variabel produksi lebih cocok digunakan dengan variabel luas lahan. Hindari penggunaan rumus sesama variabel!!
Keadaan multikolinearitas bisa dilihat dari nilai VIF. Variabel bebas tidak memiliki nilai multikolinearitas apabila nilai VIF ≤ 10.
Adapun langkah di SPSS adalah:

Pilih anallyze – regression – linear


Masukkan nilai Y (dependent) dan nilai X (independen)


Klik tombol statistic (lingkar merah)


Pilih estimates, durbin-watson, model fit, dan collinearity Diagnostics. Perlu dipahami, multikolonearitas nanti dilihat dari collinearity statistics.


Biarkan SPSS bekerja, dan lihat hasilnya. Jika nilai VIF dibawah 10 maka tidak ada masalah dengan multikolinearitas.

Lalu pertanyaannya, bagaimana jika ada masalah multikolinearitas. Terutama bagi mereka yang suka menggunakan variable yang banyak sampai puluhan. Tentunya kita juga kesulitan untuk mengetahui hubungan antar variabel hanya dengan logika berpikir
Kita bisa menggunakan analisis korelasi yang menghubungkan antar variabel independen. Analisis korelasi bisa spearman, bivariate, atau yang lain nya sesuai dengan kelompok data variabelnya (parametrik atau nonparametrik). Insya allah kapan kapan saya bahas tentang analisis korelasi ini. Gampang kok…
Kita lanjut, jika kita menemukan korelasi kedua variabel independen kuat, bisa ditunjukkan dengan nilai korelasinya diatas 0.75; maka kita mesti mengeliminir salah satu dari variable tersebut.

Semoga bisa dipahami dan bermanfaat.

Bersambung:

Uji Asumsi Klasik Part 2

  • Johnd184

    I will immediately grab your rss feed as I can not find your email subscription link or enewsletter service. Do you have any? Kindly let me know so that I could subscribe. Thanks. defdcgkbebfk

    • agung

      hai john184. thanks for your visit. i just added a link to subscribe. i hope this can be usefull. thanks

  • 1 Program you’r planting of crops to coincide whenever you can log onto your farm to reap them. cedeageddbkaadca

    • agung

      hai smithf937. do you mean about crop and farm integrated? i think i will discuss next time. because crop and farm integrated is growing in my country. thanks for your visit.

  • Pingback: Penjelasan Konsep Dasar dan Tutorial Linear Programming()