Sebaran Binomial *Excell

Dalam statistik, kita seringkali menemukan data deret hitung (count) yang berbentuk acak diskret, misalnya pada kasus pelemparan koin yang dilakukan sebanyak 6 kali, kita mungkin mendapatkan 3 gambar ataupun 3 angka yang keluar, dengan demikian peluangnya adalah 0,5 untuk gambar dan 0,5 untuk angka.

Atau kita pernah menjalani ujian dengan tipe pilihan ganda, tentunya peluang kita untuk memilih jawaban A, B, C dan D adalah sama untuk yang hanya menebak-nebak, yaitu 0,25 untuk jawaban benar dan 0,75 untuk jawaban salah. Terakhir adalah jika kita melihat data operasi transplan jantung di sebuah rumah sakit, maka kita akan temukan dari 20 kali operasi, berapa pasien yang dapat bertahan, tentunya peluangnya adalah 0,5 untuk berhasil dan 0,5 untuk gagal.

Beberapa ilustrasi di atas merupakan contoh kasus percobaan yang berjumlah n yang akan memberikan hasil antara sukses atau gagal, satu dari dua pilihan, atau katakanlah bersifat dikotomi. Percobaan ini seringkali disebut sebagai percobaan binom atau yang kita kenal dengan bernoulli trial dengan karakteristik yang berbeda dengan percobaan poisson yang telah kita bahas. Percobaan binom memiliki karakteristik antara lain:

  • Terdiri atas sejumlah n percobaan berjumlah tetap,
  • Hasil yang didapat hanya dua kemungkinan yaitu sukses atau gagal, atau sisi gambar atau sisi angka seperti pada

kasus pelemparan koin tadi,

  • Peluang sukses yang dinotasikan dengan p, adalah sama pada setiap percobaan,
  • Setiap percobaan adalah independen, artinya hasil dari satu percobaan tidak mempengaruhi hasil percobaan yang lain.

Hasil dari percobaan binom adalah jumlah keberhasilan, variabel diskret X yang menunjukkan jumlah keberhasilan disebut variabel acak binom. Nilai yang mungkin untuk percobaan binom adalah X=0,1,2, …,n dan peluang-peluang yang dihasilkannya akan menunjukkan sebaran binom yang dinotasikan dengan B(n,p).

Formula yang digunakan pada percobaan binom untuk mendapatkan sejumlah k keberhasilan pada n percobaan adalah seperti berikut:

rumus-1

Dimana:

n          = jumlah percobaan

k          = jumlah keberhasilan

n-k       = jumlah kegagalan

p          = kemungkinan keberhasilan pada satu kali percobaan

1-p       = kemungkinan kegagalan pada satu kali percobaan

Ilustrasi singkat:

Jika naomi menebak dari 10 pertanyaan pilihan ganda yang diberikan dalam ujian statistik, berapakah kemungkinan naomi menjawab 5 pertanyaan dengan benar jika pilihan jawaban yang diberikan adalah 5?

Untuk permasalahan Naomi kita memiliki n = 10, k = 5, dengan demikian peluang naomi menjawab benar p = 0,2, dan kemungkinan naomi menjawab salah adalah 0,8.

rumus-2

Maka P(5 jawaban benar dari 10 pertanyaan) ≈ 0,026

Probabilitas Binom Kumulatif

Ilustrasi di atas menerangkan peluang Naomi menjawab 5 jawaban dengan benar, bagaimana jika dikatakan paling banyak 5 jawaban benar?pertanyaan tersebut akan mengarah kepada peluang binom kumulatif dimana variabel acak binom akan jatuh pada rentang tertentu baik itu lebih besar dari atau sama dengan (>), kurang dari atau sama dengan (<).

Masalah tersebut dapat diselesaikan dengan menghitung P(6), P(7), P(8), P(9), P(10), yang kemudian dapat kita singkat dengan:

rumus-3

Dimana kita akan menghitung nilai-nilainya sebagai berikut:

P(k > 5, 10) = P(6) + P(7) + P(8) + P(9) + P(10)

Menghitung Sebaran Binom dengan Excell

Jika kita menghitung nilai Probabilitas dengan excell berdasarkan data ujian Naomi di atas, adalah seperti berikut ini:

19

Kemudian pada nilai probabilitas kita tinggal mengetikkan BINOMDIST (nomor cell, FALSE), seperti berikut:

27

Kita lihat pada gambar urutan dari formula BINOMDIST yaitu NUMBER (jumlah keberhasilan), TRIAL (jumlah percobaan), PROBABILITY (probabilitas keberhasilan), dan CUMULATIVE yang dinyatakan dengan FALSE yang menunjukkan 1-p (1-0,2).

Kemudian klik enter dan akan menunjukkan hasil 0,0264:

34

Kemudian kita akan mencari probabilitas kumulatifnya jika pertanyaan mengarah kepada rentang tertentu, dalam kasus ini peluang Naomi dapat menjawab paling banyak 5 jawaban benar ( < 5 ).

Untuk menjawab pertanyaan ini kita hanya mengganti fungsi kumulatif FALSE dengan TRUE seperti berikut ini:

44

Setelah kita enter hasilnya akan tampak seperti berikut:

52

Kita juga akan menghitung probabilitas naomi menjawab paling sedikit 5 jawaban benar ( > 5 ), dengan demikian kita akan menghitung P(6), P(7), P(8), P(9), dan P(10), sebagai berikut:

61

Kemudian kita lakukan proses yang sama pada P(7) dan seterusnya sehingga didapatkan hasil berikut:

7

Setelah didapatkan hasil masing-masing probabilitasnya, kita tinggal menggunakan fungsi SUM untuk mengetahui probabilitas kumulatif seperti di bawah ini:

8

Maka hasilnya akan ditampilkan sebagai berikut:

9

Pemaparan Data Kualitatif Dengan SPSS 23

Jika kita memiliki dua variabel kualitatif yang merupakan sebaran bersama (joint distribution), kita dapat merangkumnya dalam bentuk tabel frekuensi dua arah. Pada tabel frekuensi dua arah, variabel dikategorikan sebagai kelas pada baris dan pada kolom terdapat jenis variabel. Penjumlahan dari data bivariat disebut cross-tabulation atau cross-classification dalam sebuah tabel kontingensi.

Tabel frekuensi yang paling sederhana adalah 2×2, dimana setiap variabel hanya memiliki dua kelas. Sama halnya dengan tabel frekuensi 2×3, 3×3, dan lain-lain, dimana data tersusun dalam sejumlah baris dan kolom.

Berikut ini adalah contoh data golongan darah (bloodtype) dan jenis kelamin (sex):

data pos sampel1

Kita akan merangkum data ini ke dalam tabel frekuensi 2×2 dengan software SPSS 23:

  1. Langkah pertama buka software SPSS 23 kemudian impor data dari file dalam bentuk excel yang telah kita susun, pilih dari menubar file > open > data > open seperti gambar,

Pastikan type of files dalam bentuk excel,

analisis_cross1

analisis_cross2

2.   Setelah muncul kotak dialog opening excel data source, beri checklist pada box seperti berikut,

analisis_cross3

3.   Kemudian data kita akan terlihat seperti berikut dalam SPSS 23,

analisis_cross4

4.   Selanjutnya setelah data siap pilih di menubar analyze > descriptive statistics > crosstabs, seperti gambar,

analisis_cross5

5.   Setelah muncul kotak dialog crosstabs, masukkan variabel bloodtype ke dalam row, dan variabel sex ke dalam column,

analisis_cross6

6.   Kemudian akan ditunjukkan output tabel kontingensinya seperti berikut:

analisis_cross7

7.   Dan diagramnya sebagai berikut,

analisis_cross8

Jika sebuah variabel kualitatif memiliki kelas i dan kelas j, maka sebaran gabungan dari kedua variabel tersebut dapat dirumuskan dalam tabel frekuensi i x j.  Jika jumlah sampel n dan sel ke-ij memiliki frekuensi fij maka frekuensi relatif sel ij adalah:

rumus 1

Frekuensi relatif dinyatakan dalam persentase.

Untuk tabel frekuensi dua arah, kita dapat menghitung total pada baris dan kolomnya. Untuk kolom ke-i totalnya adalah:

f = fi1 + fi2 + fi3 + … + fij

Sementara itu untuk kolom ke-j total kolom fij adalah:

f.j = f1j + f2j + f3j + … + fij

Berdasarkan pada total kolom dan baris di atas kita dapat menghitung frekuensi relatif masing-masing, untuk sel ke-ij, untuk baris i maka frekuensi relatifnya adalah :

rumus 21

Dan frekuensi relatif bagi kolom j adalah :

rumus 22

8.   Selanjutnya dari menubar analyze > descriptive > crosstab, kita akan mencari frekuensi untuk masing-masing baris dan kolom, jangan lupa untuk mengatur persentase pada tab cells di bagian kanan kotak dialog crosstabs,

analisis_cross9

9.   Kita dapatkan output frekuensi berikut,

analisis_cross11

Dari hasil frekuensi relatif di atas kita dapat menyimpulkan apakan terdapat hubungan antara variabel baris dan kolom. Jika persentase baris sangat berbeda dengan baris yang lainnya maka sebaran dapat dikatakan memiliki keragaman yang tinggi, sehingga kita dapat menyimpulkan bahwa terdapat hubungan antar variabel, artinya variabel baris akan berpengaruh terhadap variabel kolom. Dan sebaliknya jika persentase antar kolom berbeda signifikan maka terdapat hubungan antar variabel dimana nilai variabel kolom berpengaruh terhadap nilai variabel baris.

beli buku referensi statistika deskriptif dilengkapi dengan perhitungan manual dan software SPSS; lihat buku >>>

Prosedur Koreksi Autokorelasi Model Cochrane-Orcutt

Autokorelasi adalah situasi dimana korelasi terjadi antar rangkaian pengamatan yang tersusun dalam deret waktu atau tempat. Pada regresi OLS, asumsi yang digunakan adalah tidak terdapat autokorelasi pada error. Katakanlah jika pada periode sekarang teradi pemogokan buruh yang menyebabkan turunnya produksi, maka tidak ada alasan untuk mengasumsikan produksi akan turun kembali pada periode berikutnya. Sama halnya untuk kasus regresi antar data silang (cross section), goverment expenditure daerah X dengan performa usaha kecil menengah di daerah tersebut, maka tidak akan terjadi kasus jika kenaikan performa usaha kecil menengah di daerah X akan berdampak terhadap kenaikan goverment expenditure pada daerah Y.

Autokorelasi dapat menyebabkan prediksi OLS menjadi tidak bias dan efisien, estimator yang bersifat BLUE tidak dapat kita peroleh.

Ilustrasi:

Berikut ini kita akan melihat hubungan antara jumlah produk nasional brutto (gnp) dan data consumer price index (cpi) ekuador, data tahunan terdiri atas 32 pengamatan sejak 1980 hingga tahun 2011, data diperoleh dari data popular indicator yang dikumpulkan oleh World Bank,

 Regresi sederhana dengan metode OLS akan kita ilustrasikan menggunakan software eviews 9.
 Kita tampilkan datanya dalam eviews,
data_1

buka kedua variabel atau spesifikasi persamaan melalui open – as equation, lalu masukkan persamaannya regresi seperti berikut ini,

data_2
 outputnya ditampilkan sebagai berikut,
output OLS

Kita akan transformasi variabel dengan fungsi logaritma, pilih gdp dan cpi – open – as equation,

data log

output untuk model log,

output model logKita akan plot data dalam scatterplot, dan plot residual,
Untuk melihat pola data dalam scatterplot open kedua variabel di atas, view &gt; graph, Setelah muncul graph option, pilih scatter, fit lines kita pilih regression line,
plot scatter data

Plot dari regresi OLS menggambarkan hubungan negatif gnp dengan cpi, sesuai koefisien regresi, setiap kenaikan satu satuan cpi akan menurunkan gnp sebesar 22,89 satuan. Lihat data tersebar cukup jauh dari garis regresi.

Kemudian kita plotkan fitted residual,
residual plot
plot residual kita dapatkan,
plot scatter data (1)

Secara umum residual tidak tersebar secara merata, melainkan berkumpul pada titik 1 – 0 -1, ini mengindikasikan adanya masalah korelasi antar residual pada persamaan regresi yang kita miliiki. Hal ini kemudian ditegaskan dengan hasil pengujian durbin-watson sebesar 0,498 yang terletak pada daerah autokorelasi positif.

Untuk koreksi masalah autokorelasi, kita akan lakukan prosedur Cochrane-Orcutt, yang dinyatakan dengan ρ (rho). Metode perulangan dalam cochrane-orcutt dilakukan dengan dua tahapan antara lain; (1) menentukan korelasi ρ antar beberapa pasang pengamatan dalam model, kemudian (2) menjalankan persamaan regresi dengan AR(1) atau sampai AR(2), untuk menghilangkan korelasi antar error.
Oleh karena itu kita akan merubah persamaan menjadi;
Yt = gnpt – rho*gnpt-1,

dan

Xt = cpit – rho*cpit-1

dengan;

µt = rho*µt-1 + εt

Prosedur iterasi cochrane-orcutt kemudian akan kita lakukan dengan bantuan eviews 9.
1. Pada data gnp dan cpi, open – as group,
2. Kemudian Proc – Make Equation,
equation ar(1)
3. Kemudian Buat persamaan regresi dengan AR(1) – OK,
equation ar(1)_2
 4. Output regresi dengan AR(1),
equation ar(1)_outputPersamaan regresi dengan AR(1) masih mengandung masalah autokorelasi yang diindikasikan dengan nilai statistik durbin-watson sebesar 0,72.
Mari kita lihat plot residual, pertama-tama dari output tadi kita membuat variabel residual baru dengan nama resid01 untuk persamaan ini. pada menu proc – make residual,
equation ar(1)_output make residualScatterplot untuk resid01,
equation ar(1)_output residual plotDari scatterplot persamaan AR(1), residual masih terkumpul pada beberapa poin axis-Y, gejala autokorelasi masih terlihat, hal ini ditegaskan dengan nilai statistik durbin-watson sebesar 0,73.
5. Kemudian kita masukkan kembali model AR(2) ke dalam persamaan,
equation ar(2)
6. Output regresi dengan AR(1) dan AR(2),
equation ar(2)_2
Nilai statistik durbin-watson telah mengindikasikan model telah terkoreksi dari masalah autokorelasi sebesar 1,75. Keragaman gnp yang dapat dijelaskan oleh cpi telah meningkat menjadi 96.09 persen. Dengan demikian persamaan untuk kondisi yang ideal (white noise) yang kita peroleh dari model AR(2) adalah:
GNP = 2419.87 – 1.09*CPI + [AR(1)=1.74,AR(2)=-0.78,UNCOND]
atau dalam bentuk lain:
GNPt = 2419,87 – 1,09*CPIt + µt
dimana:
µt = 1,74*µt-1 + 0,78*µt-2 + ε

Pengujian Indikasi Heteroskedastisitas Dengan Grafik

Pengujian indikasi heteroskedastisitas dengan metode grafik/scatterplot dapat dilakukan dengan langkah sebagai berikut:
Misalkan kita memiliki data seperti berikut:
scatter_1
1. Jalankan regresi linier dengan SPSS, untuk langkah melakukan regresi linier dapat dijalankan dengan comand ANALYZE – REGRESSION – LINEAR,
2.  Masukkan variabel sesuai dengan jenisnya (dependen dan independen) seperti berikut:
scatter_2
3. Klik PLOT disamping kanan,
4. Setelah muncul kotak dialog Linear Regression Plot, masukkan pada sumbu Xpredicted dependent variables atau ZPRED serta pada sumbu Yresidual atauZRESID, lalu centang Normal Probability Plots, – CONTINUE:
scatter_3
5. Setelah itu Klik OK, maka akan ditampilkan output seperti berikut:

scatter_4
Dapat kita lihat bahwa pada model bersifat homoskedastik, tidak terdapat masalahheteroskedastisitas, dimana peningkatan nilai variabel dependen pada sumbu X diikuti dengan peningkatan residual.
Berikut ini adalah contoh scatterplot dengan indikasi adanya masalah heteroskedastisitas:
scatter_5
Lihat pola scatterplot di atas, peningkatan nilai error pada sumbu X diikuti dengan keragaman yang meningkat pada sumbu Y.

Forecasting Metode Pemulusan Eksponensial dengan Eviews 8.1

Exponential Smoothing merupakan prosedur perbaikan terus-menerus pada peramalan terhadap objek pengamatan terbaru. Ia menitik-beratkan pada penurunan prioritas secara eksponensial pada objek pengamatan yang lebih tua. Dengan kata lain, observasi terbaru akan diberikan prioritas lebih tinggi bagi peramalan daripada observasi yang lebih lama.

  1. Single Exponential Smoothing

Juga dikenal sebagai simple exponential smoothing yang digunakan pada peramalan jangka pendek, biasanya hanya 1 bulan ke depan. Model mengasumsikan bahwa data berfluktuasi di sekitar nilai mean yang tetap, tanpa trend atau pola pertumbuhan konsisten.
Rumus untuk simple exponential smoothing adalah sebagai berikut:

St = α * Xt + (1 – α) * St-1

dimana:
St = peramalan untuk periode t.

Xt + (1-α) = Nilai aktual time series

Ft-1 = peramalan pada waktu t-1 (waktu sebelumnya)

α = konstanta perataan antara nol dan 1

  1. Double Exponential Smoothing

Metode ini digunakan ketika data menunjukkan adanya trend. Exponential smoothing dengan adanya trend seperti pemulusan sederhana kecuali bahwa dua komponen harus diupdate setiap periode – level dan trendnya. Level adalah estimasi yang dimuluskan dari nilai data pada akhir masing-masing periode. Trend adalah estimasi yang dihaluskan dari pertumbuhan rata-rata pada akhir masing-masing periode. Rumus double exponential smoothing adalah:

St = α * Yt + (1 – α) * (St-1 + bt-1)

bt = Υ * (St – St-1) + (1 – Υ) * bt-1              

  1. Triple Exponential Smoothing

Metode ini digunakan ketika data menunjukan adanya trend dan perilaku musiman. Untuk menangani musiman, telah dikembangkan parameter persamaan ketiga yang disebut metode “Holt-Winters” sesuai dengan nama penemuya. Terdapat dua model Holt-Winters tergantung pada tipe musimannya yaitu Multiplicative seasonal model dan Additive seasonal model yang akan dibahas pada bagian lain dari blog ini.

Kembali kita lihat data Bali visit 2015 yang diambil dari Disbudpar Provinsi Bali berikut ini:

Data berbentuk time series yang diambil sejak Januari 2008 hingga Sept 2015, data ini terdiri dari 92 pengamatan,  data dapat kamu download disini

data mentah

Untuk bahasan metode pemulusan eksponensial berikut kita akan gunakan perangkat lunak eviews versi 8.1.

1.Tahap impor data: buka software eviews kamu, pilih open existing files,

1

  1. Setelah keluar jendela eviews pilih file – import – import from file,

23. Kemudian ambil data kamu – open,

3

4. Setelah terbuka tampilannya sebagai berikut: langsung klik next, lalu finish,

4

5

5. Nah sekarang workfile kita telah terbaca oleh eviews,

6

  1. Klik 2x pada variabel visit maka akan ditampilkan datanya pada jendela eviews,

8

  1. Untuk masuk ke pemulusan eksponensial pilih di tab proc – exponential smoothing – single exponential smoothing,

98. Kemudian setelah muncul jendela exponential smoothing pilih tingkat pemulusannya, misalnya double, visitsm adalah hasil estimasi, kemudian smoothing parameter biarkan eviews yang menentukan,kemudian ok,

10Kemudian outputnya akan ditampilkan sebagai berikut :

11

Dari output dapat kita lihat nilai parameter Alpha sebesar 0,0240, dimana metode pemulusan eksponensial dinyatakan dengan formula:

α = 2/(n+1)    atau   n = (2 – α)/α

semakin tinggi nilai α yang diperoleh, maka nilai peramalan akan semakin mendekati nilai aktual.

Dengan demikian nilai peramalan yang diperoleh dengan double exponential smoothing adalah sebagai berikut:

12

output expsmoothBerikut ini adalah perbandingan nilai aktual dengan nilai peramalan dengan double exponential smoothing,

graph perbandingan double

Untuk Hasil estimasi dengan single exponential smoothing adalah sebagai berikut, ulangi kembali proses dari langkah nomor 8 diatas, pilih single exponential smoothing,

13

Dari output diatas, single exponential smoothing memberikan nilai α yang lebih baik yaitu 0,64, artinya pengamatan lebih menitikberatkan pada pengamatan yang lebih baru daripada nilai α double exponential smoothing sebesar 0,024. Semakin besar nilai α (mendekati 1) maka nilai peramalan yang diperoleh akan mendekati peramalan metode naive (lihat bahasannya disini), dimana titik berat pengamatan akan mendekati nilai rata-rata data aktual, pada kasus ekstrim dimana α = 1, YT+1/T = YT, maka nilai peramalan akan sama dengan peramalan metode naive. Semakin besar nilai α, maka akan semakin besar pula penyesuaian yang terjadi terhadap nilai peramalan, sebaliknya semakin kecil nilai α, maka akan semakin kecil pula penyesuaian yang terjadi pada nilai peramalan yang akan datang.

Nilai forecasting yang diperoleh dari single exponential smoothing adalah sebagai berikut:

output single exponential

Berikut ini adalah perbandingan nilai aktual dengan nilai peramalan menggunakan metode single exponential smoothing, garis yang berwarna merah adalah data setelah proses pemulusan tingkat 1, kita dapat melihat tidak banyak penyesuaian yang terjadi terhadap data aktual.

graph perbandingan single

Berikut ini adalah grafik perbandingan nilai peramalan dengan metode pemulusan eksponensial terhadap data aktual, dapat kita lihat bahwa nilai peramalan dengan double eksponential smoothing tidak mengikuti pola dari grafik data aktual dan single exponential smoothing yang lebih dekat terhadap nilai rata-rata, perbedaan mendasar ini terjadi ketika double eksponential smoothing telah memasukkan komponen trend dalam estimasinya. Untuk data aktual, nilai single dan double exponential beserta dan grafiknya dapat kamu unduh disini

graph perbandingan double-single

sumber data : disbudpar provinsi Bali (diolah oleh Statistik 4 Life)

Beli buku referensi lengkap, disertai contoh kasus dan penyelesaiannya dengan software eviews:

  1. Ekonometrika Pengantar dan Aplikasinya; Disertai Panduan Eviews, oleh Agus Widarjono Ph.D; lihat buku >>>
  2. Analisis Ekonometrikan dan Statistika Dengan Aplikasi Eviews, oleh Wing Wahyu Winarno, lihat buku >>>
  3. Peramalan Bisnis oleh Lerbin R. Aritonang, lihat buku >>>

Konsep Dan Jenis Data Ekonometrika

Dalam ekonometrika, kita kenal terdapat 3 kelompok data yaitu data runtun waktu (time series), data silang (cross section), dan data panel (pooled data). Data-data tersebut tentunya sangat diperlukan dalam penelitian, maupun pengambilan keputusan. Pengumpulan data biasanya memerlukan waktu yang lama karena dapat melibatkan banyak aktivitas seperti mendatangi responden, menginput data, menyunting data, maupun menampilkannya dengan suatu alat analisis tertentu. Berikut akan dibahas beberapa jenis data yang telah kita bahas di atas.

  1. Data runtun waktu (time series)

Time series merupakan data yang terdiri atas satu objek tetapi meliputi beberapa periode waktu misalnya harian, bulanan, mingguan, tahunan, dan lain-lain. Kita dapat melihat contoh data time series pada data harga saham, data ekspor, data nilai tukar (kurs), data produksi, dan lain-lain sebagainya. Jika kita amati masing-masing data tersebut terkait dengan waktu (time) dan terjadi berurutan. Misalnya data produksi minyak sawit dari tahun 2000 hingga 2009, data kurs Rupiah terhadap dollar Amerika Serikat dari tahun 2000 – 2006, dan lain-lain. Dengan demikian maka akan sangat mudah untuk mengenali jenis data ini.

Data time series juga sangat berguna bagi pengambil keputusan untuk memperkirakan kejadian di masa yang akan datang. Karena diyakini pola perubahan data runtun waktu beberapa periode masa lampau akan kembali terulang pada masa kini. Data time series juga biasanya bergantung kepada lag atau selisih. Katakanlah pada beberapa kasus misalnya produksi dunia komoditas kopi pada tahun sebelumnya akan mempengaruhi harga kopi dunia pada tahun berikutnya. Dengan demikian maka akan diperlukan data lag produksi kopi, bukan data aktual harga kopi. Tabel berikut ini akan memperjelas konsep lag yang mempengaruhi data time series.

Tabel 1. Produksi dan lag produksi kopi dunia tahun 200 – 2005

Tahun

Produksi Kopi Dunia

(Ton)

Lag Produksi Kopi

2000

7.562.713

2001

7.407.986

-154.727

2002

7.876.893

468.907

2003

7.179.592

-697.301

2004

7.582.293

402.701

2005 7.276.333

-305.960

Data lag tersebut kemudian dapat digunakan untuk melihat pengaruh lag produksi terhadap harga kopi dunia.

  1. Data Silang (cross section)

Data silang terdiri dari beberapa objek data pada suatu waktu, misalnya data pada suatu restoran akan terdiri dari data penjualan, data pembelian bahan baku, data jumlah karyawan, dan data-data relevan lainnya. Ilustrasinya seperti pada table di bawah ini.

Tabel 2. Perbandingan antara penjualan, pembelian bahan baku, dan jumlah karyawan pada restoran A, B, dan C pada bulan Januari 2009

Restoran

Penjualan Pembelian bahan baku Jumlah Karyawan

A

19.587.200 10.300.100

10

B

23.584.000 16.200.589

15

C 17.211.000 13.300.251

7

Sumber: FAO (2009)

Dari data tersebut dapat maka dapat dilihat produktivitas pada restoran A, B, dan C.

  1. Data Panel (pooled data)

Data panel adalah data yang menggabungkan antara data runtun waktu (time series) dan data silang (cross section). Karena itu data panel akan memiliki beberapa objek dan beberapa periode waktu. Contoh data panel dapat dilihat pada table berikut ini.

Tabel 3. Data panel ekspor dan impor kopi Indonesia dan Malaysia pada periode tahun 2005 – 2007

Negara

Periode Ekspor (ton)

Impor (ton)

Indonesia

2005 443.366

1.654

Indonesia

2006 411.721

5.092

Indonesia

2007 320.600

47.937

Malaysia

2005 666

23.826

Malaysia

2006 1.490

35.368

Malaysia

2007 984

42.165

Sumber: FAO (2009)

Setelah jelas konsep data, maka kita dapat melakukan dan menerapkan alat analisis yang  sesuai.

Beli buku referensi lengkap, disertai contoh kasus dan penyelesaiannya dengan software eviews:

  1. Ekonometrika Pengantar dan Aplikasinya; Disertai Panduan Eviews, oleh Agus Widarjono Ph.D; lihat buku >>>
  2. Analisis Ekonometrikan dan Statistika Dengan Aplikasi Eviews, oleh Wing Wahyu Winarno, lihat buku >>>
  3. Peramalan Bisnis oleh Lerbin R. Aritonang, lihat buku >>>