Sabtu, 14 Juli 2018
Jumat, 06 Juli 2018
TUGAS VCLASS STATISTIK M13
Nama: Asma
Ul Husna
Npm:
21216138
Kelas: 2EB07
TUGAS VCLASS
STATISTIK M13
1. Apakah sebab-sebab Autokorelasi
2. Faktor-faktor yang dapat menyebabkan
timbulnya masalah Autokolerasi!
3. Apakah yang dimaksud pengujian
Autokolerasi?
4. Dalam uji Durbin-Watson (DW-Test).
Terdapat beberapa asumsi penting yang harus dipatuhi, Apakah itu?
5. Coba jelaskan apa yang dimaksud
Asumsi Klasik!
6. Sebutkan apa saja asumsi-asumsi yang
ditetapkan!
7. Coba jelaskan mengapa tidak semua
asumsi perlu lakukan pengujian!
8. Jelaskan apa yang dimaksud dengan
Autokolerasi!
9. Jelaskan kenapa Autokolerasi timbul!
10. Bagaimana cara mendeteksi masalah
Autokolerasi
11. Apa konsekuensi dari adanya masalah
Autokolerasi dalam Model?
12. Jelaskan apa yang dimaksud dengan
Heteroskidastisitas!
13. Jelaskan kenapa
Heteroskedastisitastimbul!
14. Bagaimana
cara mendeteksi masalah Heteroskedastisitas?
15. Apa
konsekuensi dari adanya masalah Heteroskedastisitas dalam model?
16. Jelaskan
apa yang dimaksud dengan Multikolinfaritas!
17. Jelaskan
kenapa Multikolinfaritas timbul!
18. Bagaimana
cara mendeteksi masalah Multikolinfaritas?
19. Apa
konsekuensi dari adanya masalah Multikolinearitas dalam model?
20. Jelaskan
apa yang dimaksud dengan Normalitas!
21. Jelaskan
kenapa Normalitas timbul!
22. Bagaimana
cara mendeteksi masalah Normalitas?
23. Apa
konsekuensi dari adanya masalah Normalitas dalam Model?
24. Bagaimana
cara menangani jika data ternyatab tidak Normal?
Jawaban
1. Penyebab autokorelasi
adalah sebagai berikut:
•
Inersia
Salah satu ciri menonjol dari
sebagian deretan waktu ekonomi adalah inersia atau kelembaman. Seperti telah
dikenal dengan baik, deretan waktu seperti GNP. Indeks Harga, produksi,
kesempatan kerja dan pengangguran menunjukkan pola siklus. Dalam kasus-kasus
tersebut observasi yang berurutan nampaknya saling bergantungan.
•
Bias spesisifikasi
mengeluarkan variabel yang relevan dari model
•
Bias spesifikasi karena
bentuk fungsional yang tidak benar
•
Fenomena Cobweb
Penawaran banyak komoditi pertanian
mencerminkan apa yang disebut “Fenomena Cobweb” di mana penawaran bereaksi
terhadap harga dengan keterlambatannya satu periode waktu karena keputusan
penawaran memerlukan waktu untuk penawarannya (periode persiapan) jadi pada
awal musim tanam tahun ini pertanian dipengaruhi oleh harga yang terjadi tahun
lalu.
•
Manipulasi data
Dalam analisis empiris, data kasar
seringkali “dimanipulasikan”. Sebagai contoh, dalam regresi daretan waktu yang
melibatkan data kuartalan, data seperti itu biasanya diperoleh dari data
bulanan dengan hanya marata-ratakan 3 observasi 3 bulanan. Pemerataan-rataan
ini meratakan fluktuasi dalam data bulanan dan dengan sendirinya mengakibatkan
pola sistematis dalam error sehingga menyababkan autokorelasi.
2. Terdapat
banyak faktor-faktor yang dapat
menyebabkan timbulnya masalah autokorelasi, beberap faktor tersebut antara
lain:
•
Kesalahan dalam
pembentukan model, artinya, model yang digunakan untuk menganalisis regresi
tidak didukung oleh teori-teori yang relevan dan mendukung.
•
Tidak memasukkan
variabel yang penting. Variabel penting yang dimaksudkan di sini adalah
variabel yang diperkirakan signifikan mempengaruhi variabel Y.
•
Manipulasi data.
Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data
tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang
tersedia, untuk dijadikan data bulanan melalui cara interpolasi atau
ekstrapolasi.
•
Menggunakan data yang
tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut
tidak didukung oleh realita.
3.
Uji
Autokorelasi adalah sebuah analisis
statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di
dalam model prediksi dengan perubahan waktu.
4.
Dalam
DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
•
Terdapat intercept
dalam model regresi.
•
Variabel penjelasnya
tidak random ( nonstochastics ).
•
Tidak ada unsur lag
dari variabel dependen di dalam model.
•
Tidak ada data yang
hilang.
•
υ = ρυ + ε t t − 1 t
5.
Uji
asumsi klasik adalah persyaratan statistik
yang harus dipenuhi pada analisis regresi linear berganda yang berbasis
ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS
tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau
regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan
pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan
pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu
diterapkan pada data cross sectional.
6.
Asumsi 1 : linear regresion
Model. Model regresi merupakan hubungan linear dalam parameter.
Asumsi
2 : Nilai X adalah tetap dalam sampling yang diulang – ulang
Asumsi
3 : Variabel penggangu e memiliki rata –rata nol
Asumsi 4 : Homoskedastisitas
atau variabel penggangu e memiliki variance yang sama sepanjang observasi dari
berbagai nilai X.
Asumsi
5 : Tidak ada autokorelasi antara variabel e pada setiap nilai Xi dan ji
Asumsi
6 : Variabel X dan disturbance e tidak berkorelasi.
Asumsi
7 : Jumlah observasi / besar sample (n) harus lebih besar dari jumlah parameter
yang diestimasi.
Asumsi
8 : Variabel X harus memiliki variabilitas.
Asumsi
9 : Model regresi secara benar telah terspesifikasi.
Asumsi
10 : Tidak ada multikolinearitas antara variabel penjelas
7.
Karena tidak semua data
dapat diperlakukan dengan regresi, Jika data yang diregresi tidak memenuhi
asumsi-asumsi yang telah disebutkan (asumsi klasik), maka regresi yang
diterapkan akan menghasilkan estimasi yang bias.
8.
Uji
Autokorelasi adalah sebuah analisis statistik yang
dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model
prediksi dengan perubahan waktu. Oleh karena itu, apabila asumsi autokorelasi
terjadi pada sebuah model prediksi, maka nilai disturbance tidak lagi
berpasangan secara bebas, melainkan berpasangan secara autokorelasi.
9.
Masalah
autokorelasi sering timbul pada data runtut waktu
(time series). Penyebab utama autokorelasi adalah kesalahan spesifikasi,
misalnya terabaikannya suatu variabel penting atau bentuk fungsi yang tidak
tepat. Berikut beberapa penyebab munculnya autokorelasi dalam analisis regresi:
•
Adanya kelembaman
(inertia), yaitu data observasi pada periode sebelumnya dan periode sekarang,
kemungkinan besar akan mengandung saling ketergantungan (independence).
•
Bisa spesifikasi model
kasus yang tidak dimasukkan. Hal ini disebabkan oleh tidak dimasukkannya
variabel yang menurut teori sangat penting peranannya dalam menjelaskan
variabel terikat (tak bebas). Bila hal ini terjadi, unsur pengganggu (error
term) akan merefleksikan suatu pola yang sistematis antara sesama unsur
pengganggu sehingga terjadi situasi otokorelasi diantara unsur pengganggu.
•
Adanya fenomena
laba-laba (cobweb phenomenon), yaitu data yang diperoleh saat ini (X₁)
dipengaruhi oleh data sebelumnya (X₀)
sehingga data setelah saat ini/data berikutnya(X₂)
memiliki kecenderungan dipengaruhi oleh data pendahulunya (X₀)
sehingga data X₂ memiliki
potensi lebih rendah dari data X₁.
Akibatnya error term tidak lagi bersifat acak (random), tetapi mengikuti pola
sarang laba-laba.
•
Manipulasi data
(manipulation of data). Dalam analisis empiris terutama data time series sering
kali terjadi manipulasi data, hal ini terjadi data yang diinginkan tidak
tersedia. Adanya interpolasi atau manipulasi data jelas akan menimbulkan suatu
pola fluktuasi yang tersembunyi yng mengakibatkan munculnya pola sistematis
dalam unsur penggangu dan akhirnya akan menimbulkan masalah autokorelasi.
•
Adanya kelembaman waktu
(time lags). Dalam regresi data time series, pengaruh psikologis, teknis dan
kelembagaan. Jika unsur lag diabaikan dari suatu mdel yang dibentuk, maka error
term yang dihasilkan akan mencerminkan pola sistematis sebagai akibat pengaruh
variabel terikat pada periode sebelumnya atau periode sekarang.
10.
Cara
mendeteksi autokeralasi dengan metode grafik,
uji Durbin Watson, uji Run, dan uji Breusch-Godfrey (BG)/Langrange Multiplier
(LM).
11.
Konsekuensinya
antara lain:
•
Estimator yang
dihasilkan masih unbiased, konsisten, dan asymptotical normally distributed.
Tetapi tidak lagi efisien->varians tidak minimum (tidak BLUE).
•
Estimasi standard error
dan varian koefisien regresi yang didapat akan ‘underestimate’.
•
Autokorelasi yang kuat
dapat pula menyebabkan dua variabel yang tidak berhubungan menjadi berhubungan.
Biasa disebut spourious regression. Hal ini terlihat dari R2.
12.
Uji
Heteroskedastisitas adalah uji yang menilai
apakah ada ketidaksamaan varian dari residual untuk semua pengamatan pada model
regresi linear. Uji ini merupakan salah satu dari uji asumsi klasik yang harus
dilakukan pada regresi linear. Apabila asumsi heteroskedastisitas tidak
terpenuhi, maka model regresi dinyatakan tidak valid sebagai alat peramalan.
13.
Heteroskedastisitas
timbul apabila kesalahan atau residual dari
model yang diamati tidak memiliki varians yang konstan dari satu observasi ke
observasi lainnya (Kuncoro, 2001: 112).Padahal rumus regresi diperoleh dengan
asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel
yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak
konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau
mengalamiheteroskedastisitas (Setiaji, 2004: 17).
14.
Untuk
mendeteksi ada tidaknya heteroskedastisitas,
dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser,
uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier
(Setiaji, 2004: 18)21.Pengujian heteroskedastisitas menggunakan uji grafik,
dapat dilakukan dengan membandingkan sebaran antara nilai prediksi variabel
terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa
sebaran data padascatter plot.Pengujian heteroskedastisitas menggunakan uji
Arch, dilakukan dengan cara melakukan regresi atas residual, dengan model yang
dapat dituliskan e2 = a + By2 + u. Dari hasil regresi tersebut dihitung nilai
R2. Nilai R2 tadi dikalikan dengan jumlah sampel (R2 x N). Hasil perkalian ini
kemudian dibandingkan dengan nilai chi-square (x2) pada derajat kesalahan
tertentu.
15.
Analisis regresi linier
yang berupa variance residual yang sama, menunjukkan bahwa standar error (Sb)
masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak
bias., Jika asumsi ini tidak terpenuhi,
sehinggavariance residualnya berubah-ubah sesuai perubahan observasi, maka akan
mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi
bias.Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai
Sb mengecil, maka nilai t cenderung membesar.Nilai t yang seharusnya
signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan
dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
16.
Multikolinieritas
adalah suatu keadaan dimana terjadi korelasi
linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke
dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat
ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear
dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit
sifat-sifat yang sama.
17.
a. Kesalahan teoritis dalam pembentukan model
fungsi regresi yang dipergunakan/
memasukkan
variabel bebas yang hampir sama, bahkan sama.
b. Terlampau
kecilnya jumlah pengamatan yang akan dianalisis dengan model regresi
18.
Ada
beberapa metode deteksi multikolinearitas, antara lain:
a. Kolinearitas
seringkali diduga jika R2 cukup tinggi (antara 0,7-1) dan jika koefisien
korelasi sederhana (korelasi derajat nol) juga tinggi, tetapi tak satu pun/
sedikit sekali koefisien regresi parsial yang signifikan secara individu. Di
pihak lain, uji F menolak H0 yang mengatakan bahwa secara stimulan seluruh
koefisien regresi parsialnya adalah nol.
b. Meskipun
korelasi derajat nol yang tinggi mungkin mengusulkan kolinearitas, tidak perlu
bahwa mereka tinggi berarti mempunyai kolinearitas dalam kasus spesifik. Untuk
meletakkan persoalan agar secara teknik, korelasi derajat nol yang tinggi
merupakan kondisi yang cukup tapi tidak perlau adanya kolinearitas karena hal
ini dapat terjadi meskipun melalui korelasi derajat nol atau sederhana relaif
rendah.
c. Untuk
mengetahui ada tidaknya kolinearitas ganda dalam model regresi linear berganda,
tidak hanya melihat koefisien korelasi sederhana, tapi juga koefisien korelasi
parsial.
d. Karena
multikolinearitas timbul karena satu atau lebih variabel yang menjelaskan
merupakan kombinasi linear yang pasti atau mendekati pasti dari variabel yang
menjelaskan lainnya, satu cara untuk mengetahui variabel X yang mana
berhubungan dengan variabel X lainnya adalah dengan meregresi tiap Xi atas sisa
variabel X dan menghitung R2 yang cocok, yang bisa disebut.
19.
a. Walaupun
bersifat BLUE, estimator OLS yang didapatkan memiliki varians dan kovarians
yang besar, sehingga estimasi yang tepat sulit dilakukan.
b. Rentang
kepercayaan (confidence interval) menjadi besar.
c. Uji
t untuk satu atau beberapa koefisien regresi cenderung untuk tidak signifikan.
d. Walaupun
banyak koefisien yang tidak signifikan (dalam uji-t), akan tetapi nilai
koefisien determinasi (R2) biasanya sangat tinggi.
e. Estimator
OLS dan standart errornya menjadi sangat sensitif dengan adanya perubahan kecil
pada data.
20.
Uji
Normalitas adalah sebuah uji yang dilakukan dengan
tujuan untuk menilai sebaran data pada sebuah kelompok data atau variabel,
apakah sebaran data tersebut berdistribusi normal ataukah tidak. Uji Normalitas
berguna untuk menentukan data yang telah dikumpulkan berdistribusi normal atau
diambil dari populasi normal.
21.
Sebenarnya istilah
“normalitas” dalam statistik itu biasa digunakan untuk menjelaskan jenis
distribusi dari sebuah data. Suatu data memiliki kecenderungan terhadap suatu
jenis distribusi, seperti : distribusi binomial, hypergeometri, poisson,
normal, weilbul, dll. Jenis distribusi data dapat ditentukan dari karakteristik
data itu sendiri, dapat pula dilakukan pengujian apakah data tersebut memiliki
kecenderungan terhadap suatu distribusi (salah satunya distribusi normal).
22.
Untuk
masalah menguji sebuah data terdistribusi normal atau dapat menggunakan beberapa cara (uji).
Ada Uji Kolmogorov Smirnov (KS test), Jaque Berra Test, Anderson Darling Test,
dll. Uji normalitas (sebutan untuk
menguji apakah sebuah data terdistribusi normal atau tidak) biasanya dilakukan
sebagai persyaratan atas sebuah metode tertentu, misalnya dalam regresi linier
sebagai salah satu persyaratan asumsi klasik, penentuan apakah menggunakan
statistik parametrik nonparametrik, dll.
23.
Konsekuensi
dari adanya masalah normalitas adalah pengujian
normalitas ini berdamoak pada nilai t dan F karena pengujian terthadap
keduangan diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
24.
Cara
menangani jika data tersebut ternyata tidak normal
diperlukan upaya untuk mengatasi seperti memotong data out liers, memperbesar
sampel atau melakukan transformasi data.
Langganan:
Postingan (Atom)