MAKALAH
REGRESI,
KORELASI, Z TES, T TES, F TES DAN CHI SQUARE
Dosen
Pembimbing: Hendra Lesmana, M.Pd
OLEH:
1. ANAS
MUTA ALIM NIM: A.12.0060
2. ISROMAH
NURBAITI NIM: A.12.0051
3. RATNA
MARLIANA NIM: A.12.0027
4. RIZAL
FATIKUSURUR NIM: A.12.0049
SEKOLAH TINGGI
ILMU PERTANIAN
STIPER BELITANG
2014
KATA
PENGANTAR
Segala
puji dan syukur kami panjatkan kepada Tuhan Yang Maha Esa, karena atas berkat
dan limpahan rahmatnyalah kami bisa menyelesaikan sebuah karya tulis dengan
tepat waktu.
Berikut ini penulis
mempersembahkan sebuah makalah dengan judul "
Regresi,
Korelasi, Z Tes, T Tes, F Tes Dan Chi Square ", yang menurut kami dapat
memberikan manfaat yang besar bagi kita untuk mempelajarinya.
Melalui
kata pengantar ini penulis lebih dahulu meminta maaf dan memohon permakluman
bila mana isi makalah ini ada kekurangan dan ada tulisan yang kami buat kurang
tepat atau menyinggu perasaan pembaca.
Dengan
ini kami mempersembahkan makalah ini dengan penuh rasa terima kasih dan semoga
allah SWT memberkahi makalah ini sehingga dapat memberikan manfaat.
Belitang,
Juni 2014
Penyusun
DAFTAR ISI
JUDUL……………………………………………………………… i
KATA PENGANTAR………………………………………………. ii
DAFTAR ISI……………………………………………………….. iii
PEMBAHASAN……………………………………………………. 1
A. REGRESI……………………………………………………...... 1
B. KORELASI…………………………………………………...... 2
C. CHI
SQUARE………………………………………......………. 4
D. Z TES, T TES, F TES………………………………….......……. 5
DAFTAR
PUSTAKA
PEMBAHASAN
A.
REGRESI
Analisis regresi adalah salah
satu analisis yang paling populer dan luas pemakaiannya. Analisis regresi
dipakai secara luas untuk melakukan prediksi dan ramalan, dengan penggunaan
yang saling melengkapi dengan bidang pembelajaran mesin. Analisis ini juga digunakan
untuk memahami variabel bebas mana saja yang berhubungan dengan variabel
terikat, dan untuk mengetahui bentuk-bentuk hubungan tersebut.
Analisis regresi dalam statistika
adalah salah satu metode untuk menentukan hubungan sebab-akibat antara satu variabel
dengan variable (variabel) yang lain. Variabel "penyebab" disebut
dengan bermacam-macam istilah: variabel penjelas, variabel
eksplanatorik, variabel independen, atau secara bebas, variabel X
(karena seringkali digambarkan dalam grafik sebagai absis, atau sumbu X).
Variabel terkena akibat dikenal sebagai variabel yang dipengaruhi, variabel
dependen, variabel terikat, atau variabel Y. Kedua variabel
ini dapat merupakan variabel acak (random),
namun variabel yang dipengaruhi harus selalu variabel acak.
Istilah regresi pertama kali
diperkenalkan oleh Sir Francis Galton pada tahun 1886. Galton menemukan adanya
tendensi bahwa orang tua yang memiliki tubuh tinggi memiliki anak-anak yang
tinggi, orang tua yang pendek memiliki anak-anak yang pendek pula. Kendati
demikian. Ia mengamati bahwa ada kecenderungan tinggi anak cenderung bergerak
menuju rata-rata tinggi populasi secara keseluruhan. Dengan kata lain,
ketinggian anak yang amat tinggi atau orang tua yang amat pendek cenderung
bergerak kearah rata-rata tinggi populasi. Inilah yang disebut hokum Golton
mengenai regresi universal. Dalam bahasa galton, ia menyebutkan sebagai regresi
menuju mediokritas.
Hukum regresi semesta (law of
universal regression) dari Galton diperkuat oleh temannya Karl Pearson,
yang mengumpulkan lebih dari seribu catatan tinggi anggota kelompok keluarga.
Ia menemukan bahwa rata-rata tinggi anak laki-laki kelompok ayah (yang) pendek
lebih besar dari pada tinggi ayah mereka, jadi “mundurnya” (“regressing”)
anak laki-laki yang tinggi maupun yang pendek serupa kea rah rata-rata tinggi
semua laki-laki. Dengan kata lain Galton, ini adalah “kemunduran kea rah
sedang”.
Secara umum, analisis regresi
pada dasarnya adalah studi mengenai ketergantungan satu variabel dependen
(terikat) dengan satu atau lebih variabel independent (variabel
penjelas/bebas), dengan tujuan untuk mengestimasi dan atau memprediksi
rata-rata populasi atau niiai rata-rata variabel dependen berdasarkan nilai
variabe! independen yang diketahui. Pusat perhatian adalah pada upaya
menjelaskan dan mengevalusi hubungan antara suatu variabel dengan satu atau
lebih variabel independen.
Hasil analisis regresi adalah
berupa koefisien regresi untuk masing-masing variable independent. Koefisien
ini diperoleh dengan cara memprediksi nilai variable dependen dengan suatu
persamaan. Koefisien regresi dihitung dengan dua tujuan sekaligus : Pertama,
meminimumkan penyimpangan antara nilai actual dan nilai estimasi variable
dependen; Kedua, mengoptimalkan korelasi antara nilai actual dan nilai estimasi
variable dependen berdasarkan data yang ada. Teknik estimasi variable dependen
yang melandasi analisis regresi disebut Ordinary Least Squares (pangkat kuadrat
terkecil biasa).
B. KORELASI
Korelasi adalah salah satu teknik statistik yang digunakan
untuk mencari hubungan antara dua variable atau lebih yang bersifat
kuantitatif. Hubungan dua variable tersebut dapat terjadi karena adanya
hubungan sebab akibat dapat juga karena kebetulan saja. Dua variabel dikatakan
berkolerasi apabila perubahan pada variabel yang satu akan diikuti perubahan
pada variabel yang lain secara teratur, dengan arah yang sama atau berlawanan.
Dari sekian banyak teknik-teknik pengukuran
asosiasi/hubungan, terdapat dua teknik korelasi yang sangat popular sampai
sekarang, yaitu Korelasi Pearson Product Moment dan Korelasi Rank Spearmen.
Selain kedua teknik tersebut, terdapat pula teknik-teknik korelasi lain,
seperti Kendal, Chi-Square, Phi Coefficient, Goodman-Kruskal, Somer, dan
Wilson.
Korelasi bermanfaat untuk mengukur kekuatan hubungan antara
dua variabel (kadang lebih dari dua variabel) dengan skala-skala tertentu,
misalnya Pearson data harus berskala interval atau rasio; Spearman dan Kendal
menggunakan skala ordinal; Chi Square menggunakan data nominal. Kuat lemah
hubungan diukur diantara jarak (range) 0 sampai dengan 1. Korelasi
mempunyai kemungkinan pengujian hipotesis dua arah (two tailed).
Korelasi searah jika nilai koefisien korelasi positif; sebaliknya jika nilai
koefisien korelasi negatif, korelasi disebut tidak searah. Yang dimaksud dengan
koefisien korelasi ialah suatu pengukuran statistik kovariasi atau asosiasi
antara dua variabel. Jika koefisien korelasi diketemukan tidak sama
dengan nol (0), maka terdapat ketergantungan antara dua variabel
tersebut. Jika koefisien korelasi diketemukan +1, maka hubungan tersebut
disebut sebagai korelasi sempurna atau hubungan linear sempurna dengan
kemiringan (slope) positif. Jika koefisien korelasi diketemukan -1, maka
hubungan tersebut disebut sebagai korelasi sempurna atau hubungan linear
sempurna dengan kemiringan (slope) negative.
Arah hubungan antara dua variabel (direction of
correlation) dapat dibedakan menjadi:
1.
Direct Correlation (Positive
Correlation)
Perubahan
pada salah satu variabel diikuti oleh perubahan variabel yang lain secara
teratur dengan arah/gerakan yang sama. Kenaikan nilai variabel X selalu diikuti
kenaikan nilai variabel Y dan sebaliknya turunnya nilai variabel X selalu
diikuti turunnya nilai variabel Y.
2.
Inverse Correlation (Negative
Correlation)
Perubahan
pada salah satu variabel diikuti oleh perubahan variabel yang lain secara
teratur dengan arah/gerakan yang berlawanan. Kenaikan nilai variabel X selalu
diikuti turunnya nilai variabel Y dan sebaliknya turunnya nilai variabel X
selalu diikuti naiknya nilai variabel Y.
3.
Korelasi Nihil (Tidak Berkorelasi)
Kenaikan
nilai variabel yang satu kadang-kadang disertai turunnya nilai variabel yang
lain atau kadang-kadang diikuti naiknya nilai variabel yang lain. Arah/gerakan
hubungannya tidak teratur, kadang-kadang dengan arah yang sama, kadang-kadang
berlawanan.
C. CHI SQUARE
Uji chi-square adalah salah satu uji
statistic non parametik yang cukup sering digunakan dalam penelitian. Uji chi-square ini bias diterapkan untuk
pengujian kenormalan data, pengujian data yang berlevel nominal atau untuk
menguji perbedaan dua atau lebih proporsi sampel. Uji chi-square diterapkan pada kasus dimana akan diuji apakah frekuensi
yang akan di amati (data observasi) bebeda secara nyata ataukah tidak dengan
frekuensi yang diharapkan (expected value). Chi-square
Test atau Uji Chi-square adalah
teknik analisis yang digunakan untuk menentukan perbedaan frekuensi
observasi (Oi) dengan frekuensi ekspektasi atau frekuensi harapan (Ei) suatu
kategori tertentu. Uji ini dapatdilakukan pada data diskrit atau frekuensi.
Pengertian
chi square atau chi kuadrat lainnya adalah sebuah uji hipotesis tentang
perbandingan antara frekuensi observasi dengan frekuensi harapan yang
didasarkan oleh hipotesis tertentu pada setiap kasus atau data (diktat 2009).
Chi kuadrat adalah pengujian hipotesis tentang perbandingan antara frekuensi
sampel yang benar–benar terjadi (Haryono,1994). Chi kuadrat biasanya di dalam
frekuensi observasi berlambangkan dengan frekuensi harapan yang didasarkan atas
hipotesis dilambangkan . Ekspresi matematis tentang distribusi chi kuadrat
hanya tergantung pada suatu parameter, yaitu derajat kebebasan (d.f.).
Chi kuadrat
mempunyai masing–masing nilai derajat kebebasan, yaitu distribusi (kuadrat
standard normal) merupakan distribusi chi kuadrat dengan d.f. = 1, dan nilai
variabel tidak bernilai negative. Kegunaan dari chi square untuk menguji
seberapa baik kesesuaian diantara frekuensi yang teramati dengan frekuensi
harapan yang didasarkan pada sebaran yang akan dihipotesiskan, atau juga
menguji perbedaan antara dua kelompok pada data dua kategorik untuk dapat
menguji signifikansi asosiasi dua kelompok pada data dua katagorik tersebut
(Sri,1990).
Syarat agar
uji Chi-Square dapat digunakan adalah
jumlah sel yang nilai espektasinya kurang dari 5 tidak lebih dari 20 % dari sel
yang ada.Namun apabila hal ini terjadi SPSS akan memberikan peringatan dan anda
harus menggunakan uji chi-square
dengan koreksi.Jika hal ini terjadi pada tebel 2 baris dan 2 kolom,sebaiknya
anda menggunakan uji eksak dan Fisher yang di tampilkan pada bagian bawah table
uji statistik.
D.
Z
TES, T TES, F TES
Uji Z adalah salah
satu uji statistika yang pengujian hipotesisnya didekati dengan
distribusi normal. Menurut teori limit terpusat, data dengan ukuran
sampel yang besar akan berdistribusi normal. Oleh karena itu, uji Z dapat
digunakan utuk menguji data yang sampelnya berukuran besar. Jumlah sampel
30 atau lebih dianggap sampel berukuran besar. Selain itu, uji Z ini
dipakai untuk menganalisis data yang varians populasinya diketahui.
Namun, bila varians populasi tidak diketahui, maka varians dari sampel dapat
digunakan sebagai penggantinya.
Independen T Test adalah uji komparatif
atau uji beda untuk mengetahui adakah perbedaan mean atau rerata yang bermakna
antara 2 kelompok bebas yang berskala data interval/rasio. Dua kelompok bebas
yang dimaksud di sini adalah dua kelompok yang tidak berpasangan, artinya
sumber data berasal dari subjek yang berbeda. Misal Kelompok Kelas A dan
Kelompok kelas B, di mana responden dalam kelas A dan kelas B adalah 2 kelompok
yang subjeknya berbeda. Bandingkan dengan nilai pretest dan posttest pada kelas
A, di mana nilai pretest dan posttest berasal dari subjek yang sama atau
disebut dengan data berpasangan. Apabila menemui kasus yang data berpasangan,
maka uji beda yang tepat adalah uji paired t test.
Uji
F sering disebut dengan uji varians atau analisis keragaman atau analisis
varians (ANOVA = analisis of variance) adalah membandingkan nilai F
hitung dengan nilai F tabel atau F standar. Dapat pula dikatakan bahwa
uji F adalah untuk menguji kesamaan dua varians atau kesamaan dua ragam
populasi. F hitung atau F calculation adalah perbandingan varians dua
kelompok data; atau perbandingan antara varians perlakuan dengan varians residu
dalam percobaan.
DAFTAR
PUSTAKA
Thanks
BalasHapusKomentar ini telah dihapus oleh pengarang.
BalasHapusMau tanya dong kalo pake uji chi square itu apa hrs pake uji f dan uji t juga?
BalasHapusAtau uji uji f dan uji t itu unutuk yg menggunakan regresi aja?
Bermanfaat sekali, terima kasih sudah mencerahkan
BalasHapus