Uji Regresi Berganda

Uji regresi berganda aneka macam digunakan dalam penelitian. Pemakaian baik untuk keperluan skripsi ataupun penelitian sehari-hari. Kelebihan uji regresi yaitu kemampuannya melaksanakan prediksi. Bagi kalangan guru sekolah atau dosen, uji regresi bisa digunakan untuk memprediksi sikap siswa, baik dalam hal nilai atau perilaku-perilaku lainnya.

Regresi Berganda Simultan atau Standar yaitu kembangan lebih lanjut dari Penelitian Korelasional. Lewat Uji Regresi hendak dilihat bagaimana suatu variabel mempengaruhi variabel lain. Regresi Berganda Simultan atau Standar juga kerap disebut Standard Multiple Regression atau Simultaneous Multiple Regression).

Dalam uji regresi berganda simultan, seluruh variabel prediktor (bebas) dimasukkan ke dalam perhitungan regresi secara serentak. Jadi, peneliti bisa membuat persamaan regresi guna memprediksi variabel terikat dengan memasukkan, secara serentak, serangkaian variabel bebas. Persamaan regresi kemudian menghasilkan konstanta dan koefisien regresi bagi masing-masing variabel bebas. 

Selain Regresi Berganda Simultan atau Standar, ada pula Regresi Berganda Stepwise dan Regresi Berganda Hirarki. Tulisan ini hanya hendak mendalami Regresi Berganda Simultan atau Standar saja. 

Regresi Berganda dengan SPSS

Regresi Berganda sangat gampang dilakukan dengan SPSS. Julie Pallant menginstruksikan dilakukannya langkah-langkah berikut ini : 

  1. Klik Analyze --> Regression --> Linear. 
  2. Klik variabel terikat --> Pindahkan ke kotak Dependent. 
  3. Klik variabel bebas --> Pindahkan ke kotak Independent(s). 
  4. Pada Method, pastikan dipilih Enter (untuk Regresi Berganda Standar). 
  5. Klik tombol Statistics, kemudian lakukan : 
  6. Ceklis Estimates, Model fit, Descriptives, dan Collinearity diagnostics. 
  7. Pada pecahan Residual, ceklis Casewise diagnostics dan Outliers outside 3 standard deviations. 
  8. Klik Continue. 
  9. Klik tombol Options. Pada pecahan Missing Values ceklis Exclude cases pairwise. 
  10. Klik tombol Plots, lakukan : 
  11. Klik *ZRESID dan tombol panah untuk memindahkannya ke kotak y-axis. 
  12. Klik *ZPRED dan tombol panah untuk memindahkannya ke kotak x-axis. 
  13. Klik Next 
  14. Klik *SRESID dan tombol panah untuk memindahkannya ke kotak y-axis (untuk melihat homoskedastisitas) 
  15. Klik *ZPRED dan tombol panah untuk memindahkannya ke kotak x-axis (untuk melihat homoskedastisitas) 
  16. Pada pecahan Standardized Residual Plots, ceklis pilihan Normal probability plot. 
  17. Klik Continue. 
  18. Klik tombol Save. 
  19. Pada pecahan Predicted Values, ceklis Unstandardized, Standardized, Adjusted 
  20. Pada pecahan Residuals, ceklis Standardized, Deleted, dan Studentized deleted. 
  21. Pada pecahan Distances, ceklis Mahalanobis, Cook’s, dan Leverage values. 
  22. Pada pecahan Influence Statistics, ceklis Standardized dfBeta(s) dan Standardized DiFit 
  23. Klik Continue. 
  24. Klik OK. 

Asumsi Uji Regresi Berganda (Multiple Regression)

Menurut Julie Pallant dan Andy Field, Uji Regresi Berganda punya sejumlah perkiraan yang dilarang dilanggar. Asumsi-asumsi Uji Regresi Berganda adalah:

1. Ukuran Sampel

Masalah berkenaan ukuran sampel di sini yaitu generabilitas. Dengan sampel kecil anda tidak bisa melaksanakan generalisasi (tidak bisa diulang) dengan sampel lainnya. Berbeda penulis berbeda berapa sampel yang seharusnya dalam uji Regresi Berganda. Stevens (1996, p.72) merekomendasikan bahwa “untuk penelitian ilmu sosial, sekitar 15 sampel per prediktor (variabel bebas) diharapkan untuk mengisi persamaan uji regresi.” Tabachnick and Fidell (1996, p.132) memberi rumus guna menghitung sampel yang diharapkan uji Regresi, berkaitan dengan jumlah variabel bebas yang digunakan:

n > 50 + 8m

Dimana : 
n = Jumlah Sampel 
m = Jumlah Variabel Bebas 

Jika peneliti memakai 5 variabel bebas, maka jumlah sampel yang diharapkan yaitu 90 orang, dalam mana 50 ditambah ( 5 x 8) = 50 + 40 = 90.

2. Outlier

Regresi Berganda sangat sensitif terhadap Outlier (skor terlalu tinggi atau terlalu rendah). Pengecekan terhadap skor-skor ekstrim seharusnya dilakukan sebelum melaksanakan Regresi Berganda. Pengecekan ini dilakukan baik terhadap variabel bebas maupun terikat. Outlier bisa dihapus dari data atau diberikan skor untuk variabel tersebut yang tinggi, tetapi tidak terlampau beda dengan kelompok skor lainnya. Prosedur pemanis guna mendeteksi outlier juga terdapat pada jadwal SPSS file mah_1. Outlier pada variabel terikat sanggup diidentifikasi dari Standardised Residual plot yang sanggup disetting. Tabachnick and Fidell (1996, p. 139) memilih outlier yaitu nilai-nilai Standardised Residual di atas 3,3 (atau < - 3,3).

Outlier juga bisa dicek memakai jarak Mahalanobis yang tidak diproduksi oleh jadwal Regresi Berganda SPSS ini. Ia tidak terdapat dalam output SPSS. Untuk mengidentifikasi sampel mana yang merupakan Outlier, anda perlu memilih nilai kritis Chi Square, dengan memakai jumlah variabel bebas yang digunakan dalam penelitian sebagai “degree of freedom-nya” atau derajat kebebasan. Pallant memakai Alpha 0,001 supaya lebih meyakinkan, yang rinciannya sebagai berikut: 



Untuk memakai tabel kritis Chi Square, lakukan langkah berikut:

  1. Tentukan variabel bebas yang digunakan dalam analisis; 
  2. Temukan nilai di atas pada salah satu kolom berbayang; dan 
  3. Baca melintasi kolom untuk menemukan nilai kritis yang dikehendaki. 

3. Normalitas Residu

Normalitas yaitu residu yang seharusnya terdistribusi normal seputar skor-skor variabel terikat. Residu yaitu sisa atau perbedaan hasil antara nilai data pengamatan variabel terikat terhadap nilai variabel terikat hasil prediksi. Untuk melihat apakah residu normal atau tidak, sanggup dilakukan dengan cara berikut:

  1. Melihat grafik Normal P-P Plot, dan 
  2. Uji Kolmogorov-Smirnov 

Pada grafik Normal P-P Plot, residu yang normal yaitu data memencar mengikuti fungsi distribusi normal yaitu menyebar seiring garis z diagonal. Residu normal dari uji Kolmogorov-Smirnov yaitu diperolehnya nilai p > 0,05. 

Linieritas yaitu residual yang seharusnya punya hubungan dalam bentuk “straight-line” dengan skor variabel terikat yang diprediksi. Homoskedastisitas yaitu varians residual seputar skor-skor variabel terikat yang diprediksi seharusnya sama bagi skor-skor yang diprediksi secara keseluruhan. 

4. Multikolinieritas 

Uji Regresi mengasumsikan variabel-variabel bebas tidak mempunyai hubungan linier satu sama lain. Sebab, jikalau terjadi hubungan linier antarvariabel bebas akan membuat prediksi atas variabel terikat menjadi bias alasannya terjadi dilema hubungan di antara para variabel bebasnya. 

Dalam Regresi Berganda dengan SPSS, dilema Multikolinieritas ini ditunjukkan lewat tabel Coefficient, yaitu pada kolom Tolerance dan kolom VIF (Variance Inflated Factors). Tolerance yaitu indikator seberapa banyak variabilitas sebuah variabel bebas tidak bisa dijelaskan oleh variabel bebas lainnya. Tolerance dihitung dengan rumus 1 – R2 untuk setiap variabel bebas. Jika nilai Tolerance sangat kecil (< 0,10), maka itu mengambarkan hubungan berganda satu variabel bebas sangat tinggi dengan variabel bebas lainnya dan mengindikasikan Multikolinieritas. Nilai VIF merupakan invers dari nilai Tolerance (1 dibagi Tolerance). Jika nilai VIF > 10, maka itu mengindikasikan terjadinya Multikolinieritas. 

Hipotesis untuk Multikolinieritas ini adalah:


5. Autokorelasi

Autokorelasi juga disebut Independent Errors. Regresi Berganda mengasumsikan residu observasi seharusnya tidak berkorelasi (atau bebas). Asumsi ini bisa diuji dengan teknik statistik Durbin-Watson, yang menyidik hubungan berlanjut antar error (kesalahan). Durbin-Watson menguji apakah residual yang berdekatan saling berkorelasi. Statistik pengujian bervariasi antara 0 sampai 4 dengan nilai 2 mengindikasikan residu tidak berkorelasi. Nilai > 2 mengindikasikan hubungan negatif antar residu, di mana nilai < 2 mengindikasikan hubungan positif. >

Cara melaksanakan uji Durbin-Watson adalah, nilai Durbin-Watson hitung harus lebih besar dari batas atas Durbin-Watson tabel. Syarat untuk mencari Durbin-Watson tabel yaitu Tabel Durbin-Watson. Untuk mencari nilai Durbin-Watson tabel: 

  1. tentukan besar n (sampel) dan k (banyaknya variabel bebas). 
  2. Tentukan taraf signifikansi penelitian yaitu 0,05. 

Durbin-Watson hitung sanggup dicari dengan SPSS. Nilai Durbin-Watson hitung terdapat dalam output SPSS, khususnya pada tabel Model Summary. Hipotesis untuk Autokorelasi ini adalah:


Pengambilan keputusannya adalah:

Dengan kurva normal pengambilan Durbin-Watson:




  • Terima H0 jikalau Durbin-Watson hitung lebih besar dari ..... dan Durbin-Watson hitung lebih kecil dari 4 - .....; Artinya tidak ada Autokorelasi. 
  • Tolak H0 jikalau Durbin-Watson hitung lebih kecil dari ..... atau 4 - ..... lebih kecil dari .....; Artinya ada Autokorelasi. 

6. Homoskedastisitas 

Uji Regresi bisa dilakukan jikalau data bersifat Homoskedastisitas bukan Heteroskedastisitas. Homoskedastisitas yaitu kondisi dalam mana varians dari data yaitu sama pada seluruh pengamatan. Terdapat sejumlah uji guna mendeteksi tanda-tanda heteroskedastisitas contohnya uji Goldfeld-Quandt dan Park. Namun, Wang and Jain beranggapan bahwa Uji Park sanggup lebih teliti dalam memantau tanda-tanda heteroskedastisitas ini. Dengan demikian, penelitian ini akan memakai Uji Park guna memilih tanda-tanda heteroskedastisitas variabel-variabelnya.

Uji Park dilakukan dengan meregresikan nilai residual (Lne2) dengan masing-masing variabel independent. “The Park test suggests that if heteroscedasticity is present, the heteroscedastic varianc eσ_i^2 may be systematically related to one or more of the explanatory variables.” Rumus uji Park sebagai berikut:


Cara melaksanakan Uji Park yaitu sebagai berikut:

  1. Dengan SPSS klik Analyze -->Regression --> Linear --> Masukkan variabel y ke Dependent --> Masukkan variabel x1, x2, x3, x4 ke Independent(s) --> Klik Save --> Pada Residual klik Unstandardized --> Continue --> OK 
  2. Pada SPSS klik Data View --> Cek bahwa ada satu variabel gres berjulukan res_1. Ini merupakan nilai ε_i^ . Nilai ini harus dikuadratkan dengan cara (pada SPSS) klik Transform --> Compute --> Isi Target Variable dengan ε_i^2 --> Pada operasi hitung kalikan nilai ε_i^ dengan ε_i^ . Pada Variable View SPSS muncul variabel gres berjulukan ε_i^2. 
  3. Dengan SPSS, tepatnya sajian Transform --> Compute lakukan perubahan nilai ε_i^2, X1, X2, X3, X4 ke dalam bentuk logaritma natural (Ln) [caranya dengan Klik Ln kemudian pindahkan variabel] Ln(ε_i^2 ) yaitu regresi unstandardized residual pada Target Variable dinamai Lnei2; X1 yaitu variabel x1 pada Target Variable dinamai Lnx1; X2 yaitu variabel x2 pada Target Variable dinamai Lnx2; x3 yaitu variabel x3 pada Target Variable dinamai Lnx3; x4 yaitu variabel x4 pada Target Variable dinamai Lnx4. 
  4. Setelah diperoleh nilai variabel-variabel gres Lnei2, LnX1, LnX2, LnX3, dan LnX4. 
  5. Lakukan uji regresi kembali secara satu per satu. 
  6. Pertama, klik Analyze --> Regression>Linear --> Masukkan variabel Lnei2 ke kotak Dependent --> Masukkan variabel LnX1 ke Independent(s) --> OK. Sementara hasil belum dihiraukan. 
  7. Kedua, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di Dependent, biarkan > Keluarkan LnX1 dan masukkan LnX2 ke Independent(s) > OK. Sementara hasil belum dihiraukan. 
  8. Ketiga, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di Dependent, biarkan > Keluarkan LnX2 dan masukkan LnX3 ke Independent(s) > OK. Sementara hasil belum dihiraukan. 
  9. Keempat, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di Dependent, biarkan > Keluarkan LnX3 dan masukkan LnX4 ke Independent(s) > OK. Sementara hasil belum dihiraukan. 
  10. Perhatikan Output SPSS. Pada output, terdapat hasil perhitungan Park bagi variabel x1, x2, x3 dan x4, tepatnya yaitu hasil uji Lnei2 dengan LnX1, dan uji Lnei2 dengan LnX2, uji Lnei2 dengan LnX3, dan uji Lnei2 dengan LnX4. 
  11. Peneliti akan memperbandingkan apa yang tertera di tabel Coefficients, yaitu nilai t. 
  12. Guna memastikan apakah ada tanda-tanda heteroskedastisitas, peneliti akan memperbandingkan nilai thitung dengan ttabel. Nilai ttabel sanggup dicari pada Tabel t, yaitu dengan memilih df = n - 4 . n yaitu jumlah sampel dan 4 alasannya jumlah variabel independen penelitian yaitu 4. Sehingga nilai df = 48 – 4 = 44. Dalam taraf 0,05 uji yang dilakukan yaitu 2 sisi sehingga singnifikansi pada tabel yaitu 0,025. 

Dengan mempertemukan nilai 46 dan 0,025 dan uji 2 sisi pada taraf 95% (0,025) pada Tabel t diperoleh nilai t tabel penelitian sebesar ...... 

Hipotesis yang diajukan mengenai dilema homoskedastisitas ini sebagai berikut:


Alternatif Uji Homoskedastisitas Jika Uji Park dianggap Terlampau Rumit 

Jika uji Park dianggap terlampau rumit, maka pengujian alternatif sanggup ditempuh guna melihat apakah terjadi Homoskedastisitas atau Heteroskedastisitas. 

Caranya dengan melihat grafik persilangan SRESID dengan ZPRED pada output hasil SPSS. Caranya sebagai berikut:

  1. Klik Analyze --> Regression --> Linear 
  2. Klik Plot. 
  3. Isikan SRESID pada y-axis dan ZPRED pada x-axis. 
  4. Klik Continue. Perhatikan grafik scatterplot. Ingat, Homoskedastisitas terjadi jikalau varians dari residual satu pengamatan ke pengamatan lain tetap atau sama. Heteroskedastisitas terjadi jikalau varians dari residual satu pengamatan ke pengamatan lain tidak sama atau tidak tetap. 

Homoskedastisitas terjadi jikalau tidak terdapat referensi tertentu yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y. Heteroskedastisitas terjadi jikalau terdapat titik-titik memili referensi tertentu yang teratur menyerupai bergelombang, melebar kemudian menyempit.

Interpretasi Hasil Uji Regresi Berganda

Setelah uji Regresi Berganda simpulan dilakukan, peneliti harus melaksanakan interpretasi. Rumus Regresi Berganda (standar) yaitu sebagai berikut: 


Setelah pengujian Regresi Berganda dengan SPSS selesai, hal-hal penting untuk interpretasi yaitu apa yang tercantum pada tabel-tabel pada output SPSS.

Tabel Descriptives 

Pada tabel Descriptive sanggup dilihat nilai Standar Deviasi. Nilai ini terdapat pada kolom Std. Deviation. Nilai ini nanti akan diperbandingkan dengan nilai Std. Error of the Estimate. 

Tabel Model Summary 

Tabel ini memberi gosip seberapa baik model analisis kita secara keseluruhan, yaitu bagaimana 4 variabel bebas bisa memprediksikan 1 variabel terikat, dengan rincian sebagai berikut ini:

Kolom Model. Menunjukkan berapa buah model analisis yang kita bentuk. 

Kolom R. Menunjukkan seberapa baik variabel-variabel bebas memprediksikan hasil (multiple correlation coefficient). Kisaran nilai R yaitu 0 sampai 1. Semakin nilai R mendekati angka 1, maka semakin berpengaruh variabel-variabel bebas memprediksikan variabel terikat. Namun, ketepatan nilai R ini lebih disempurnakan oleh kolom Adjusted R Square yang merupakan koreksi atas nilai R. 

Kolom Adjusted R Square. Fungsinya menjelaskan apakah sampel penelitian bisa mencari balasan yang diharapkan dari populasinya. Kisaran nilai Adjusted R Square yaitu 0 sampai 1. Pedoman interpretasi atas nilai Adjusted R Square yaitu sebagai berikut: 


Kalikan Adjusted R2 dengan 100% maka akan diperoleh berapa % varians tiap sampel pada variabel terikat bisa diprediksi oleh variabel-variabel bebas secara bahu-membahu (simultan). 

Std. Error of the Estimate. Kolom ini menjelaskan seberapa berpengaruh variabel-variabel bebas bisa memprediksi variabel terikat. Nilai Std. Error of the Estimate diperbandingkan dengan nilai Std. Deviation (bisa dilihat pada tabel Descriptives). Jika Std. Error of the Estimate < Std. Deviation, maka Std. Error of the Estimate baik untuk dijadikan prediktor dalam memilih variabel terikat. Jika Std. Error of the Estimate > Std. Deviation, maka Std. Error of the Estimate tidak baik untuk dijadikan prediktor dalam mementukan variabel terikat. 

Durbin-Watson. Kolom ini digunakan untuk mengecek uji perkiraan Autokorelasi. Bagaimana variabel bebas yang satu berkorelasi dengan variabel bebas lainnya. Durbin-Watson ini digunakan dalam uji perkiraan Regresi sebelumnya. 

Tabel Coefficients

Pada tabel Coefficient, mohon perhatikan kemudian jelaskan nilai-nilai yang tertera pada kolom-kolom berikut ini:

Model. Kolom ini menjelaskan berapa banyak model analisis yang dibentuk peneliti. Pada kolom ini juga terdapat nama-nama variabel bebas yang digunakan dalam penelitian. Variabel-variabel tersebut diberi label “Constant” yaitu nilai konstanta yang digunakan dalam persamaan uji Regresi Berganda (a). 

Unstandardized Coefficient. Kolom ini terdiri atas b dan Std. Error. Kolom b menawarkan Koefisien b, yaitu nilai yang menjelaskan bahwa Y (variabel terikat) akan berubah jikalau X (variabel bebas) diubah 1 unit. 

Standardized Coefficients. Pada kolom ini terdapat Beta. Penjelasan sebelumnya mengenai nilai b punya dilema alasannya variabel-variabel kerap diukur memakai skala-skala pengukuran yang berbeda. Akibatnya, kita tidak bisa memakai nilai b guna melihat variabel-variabel bebas mana yang punya imbas lebih berpengaruh atas variabel terikat. Misalnya, jikalau variabel yang diteliti yaitu jenis kelamin yang punya skala minimal 1 dan maksimal 2 dan pengaruhnya terhadap sikap yang skalanya minimal 1 dan maksimal 6, nilai b diragukan efektivitas prediksinya. Ini akhir nilai yang diperolehnya rendah atas imbas perbedaan skala pengukuran. Untuk memastikan imbas inilah maka nilai Beta dijadikan patokan. Nilai Beta punya kisaran 0 sampai 1, di mana semakin mendekati 1 maka semakin berdampak besar signifikansinya. 

Sig. Kolom ini menjelaskan perihal signifikansi hubungan antar variabel bebas dengan variabel terikat. Nilai Sig. ini sebaiknya yaitu di bawah 0,05 (signifikansi penelitian). 

Tolerance. Kolom ini menjelaskan banyaknya varians pada suatu variabel yang tidak bisa dijelaskan oleh variabel prediktor lainnya. Kisarannya 0 sampai 1, di mana semakin mendekati 1 maka semakin mengindikasikan prediktor-prediktor lain tidak bisa menjelaskan varians di variabel termaksud. Nilai yang semakin mendekati 0 artinya hampir semua varians di dalam variabel bisa dijelaskan oleh variabel prediktor lain. Nilai Torelance sebaiknya ada di antara 0,10 sampai 1. 

Tabel ANOVA

Sig. Tabel ANOVA menawarkan besarnya angka probabilitas atau signifikansi pada perhitungan ANOVA. Nilai yang tertera digunakan untuk uji kelayanan Model Analisis [dimana sejumlah variabel x mempengaruhi variabel y] dengan ketentuan angka probabilitas yang baik untuk digunakan sebagai model regresi harus < 0,05. Nilai ini bisa dilihat pada kolom Sig. Jika Sig. < 0,05, maka Model Analisis dianggap layak. Jika Sig. > 0,05, maka Model Analisis dianggap tidak layak. 

Pengambilan Keputusan dengan Tabel ANOVA

Dalam Regresi Berganda, hal utama yang hendak dilihat yaitu apakah serangkaian variabel bebas secara serentak mempengaruhi variabel terikat. Dalam output SPSS ini bisa ditentukan lewat tabel ANOVA. 

Pada tabel ANOVA terdapat kolom F. Nilai yang tertera pada kolom F tersebut disebut sebagai F hitung. F hitung ini diperbandingkan dengan F tabel. Peraturannya:


Persoalannya, bagaimana memilih F tabel? F tabel sanggup ditentukan dengan cara:

  1. Tentukan signifikansi penelitian yaitu 0,05 (uji 2 sisi jadi 0,025. 
  2. Tentukan df1. Df1 diperoleh dari jumlah variabel bebas 
  3. Tentukan df2. Df2 diperoleh dari n – k – 1 = 48 – 4 – 1 = 43. 
  4. Cari angka 43 dan 4 dalam tabel F untuk signifikansi 0,025. 
  5. Dengan Excel, ketikkan rumus =FINV(0,05;4;43) 

Selain perbandingan nilai F, penerimaan atau penolakan Hipotesis juga bisa memakai nilai Sig. pada tabel ANOVA. Peraturannya:


Koefisien Determinasi

Dalam uji Regresi Berganda, Koefisien Determinasi digunakan untuk mengetahui persentase pinjaman imbas serentak variabel-variabel bebas terhadap variabel terikat. Untuk itu, digunakan angka-angka yang ada pada Tabel Model Summary. 

Cara memilih Koefisien Determinasi sangatlah mudah. Peneliti tinggal melihat nilai pada kolom R2 dikalikan 100%. Misalnya nilai R2 yaitu 0,7777. Dengan demikian Koefisien Determinasinya = 0,7777 x 100% = 77,77%. Jadi, secara serentak variabel-variabel bebas mempengaruhi variabel terikat sebesar 77,77%. Sisanya, yaitu 100 – 77,77% = 22,23% ditentukan oleh variabel-variabel lain yang tidak disertakan di dalam penelitian. 

Koefisien Regresi Parsial

Koefisien Regresi Parsial menawarkan apakah variabel-variabel bebas punya imbas secara parsial (terpisah atau sendiri-sendiri) terhadap variabel terikat? 

Pada Tabel Coefficient, pengujian Hipotesis akan dilakukan. Uji hipotesis dilakukan dengan memakai Uji t. Pernyataan Hipotesis yang hendak diuji sebagai berikut:


Nilai t hitung bisa dilihat pada kolom t bagi masing-masing variabel bebas. 

Nilai t tabel bisa dicari dengan cara berikut ini:

  1. α = 0,05; untuk uji 2 sisi = 0,025 
  2. Degree of Freedom (df) = jumlah sampel – jumlah variabel bebas – 1 (angka 1 yaitu konstanta) = 48 – 4 – 1 = 43. 
  3. Cari persilangan antara df = 43 dan 0,025. 
  4. Pencarian nilai t tabel dengan Excel gampang sekali. Ketik rumus =tinv(0,05;43). 

----------------------------------------- 

Daftar Pustaka

  • Andi Field, Discovering Statistics using SPSS: And Sex Drug and Alcohol, Second Edition (London: SAGE Publication, 2005) 
  • Daniel Muijs, Doing Quantitative Research in Education with SPSS (London: SAGE Publication Ltd., 2004) 
  • George C.S. Wang and Chaman L. Jain, Regression Analysis: Modelling and Forecasting (New York: Graceway Publishing Company, 2003) 
  • Jonathan Sarwono, Statistik Itu Mudah: Panduan Lengkap untuk Melakukan Komputasi Statistik Menggunakan SPSS 16 (Yogyakarta: Penerbit ANDI, 2009) 
  • Julie Pallant, SPSS Survival Manual: A Step by Step Guide to Data Analysis using SPSS for Windows, Third Edition (Berkshire: McGraw-Hill and Open University Press, 2007) 
  • Nancy L. Leech, Karen C. Barrett, George A. Morgan, SPSS for Intermediate Statistics: Use and Interpretation, Second Edition (New Jersey: Lewrence Erlbaum Associates, Publishers, 2005) 
  • Sarah Boslaugh and Paul Andrew Watter, Statistics in a Nutshell: A Desktop Quick Reference (Sebastopol: O’Reilly Media, Inc., 2008) 
  • Simon Washington, Matthew G. Karlaftis and Fred L. Mannering, Statistical and Econometric Methods for Transportation Data Analysis, (Boca Raton : Chapman & Hall/CRC, 2003) 
  • Tony Wijaya, Analisis Data Penelitian Menggunakan SPSS (Yogyakarta: Penerbit Universitas Atma Jaya Yogyakarta, 2009) 
tags:
cara uji regresi berganda dengan spss menafsirkan output hasil spss arti tabel summary koefisien determinasi regresi parsial mengolah hasil spss


Subscribe to receive free email updates:

0 Response to "Uji Regresi Berganda"

Posting Komentar