22 - candrayu/SistemOperasiGenap24-25 GitHub Wiki

🧠 Ensemble Method: Bagging dan Boosting

πŸ“Œ Apa itu Ensemble Method?

Ensemble Method adalah teknik dalam Machine Learning yang menggabungkan beberapa model (biasanya model sederhana atau β€œweak learners”) untuk menghasilkan model prediksi yang lebih akurat dan stabil.

Tujuan utama:
βœ… Mengurangi bias
βœ… Mengurangi variance
βœ… Meningkatkan akurasi


πŸ”Έ 1. Bagging (Bootstrap Aggregating)

πŸ“˜ Definisi:

Bagging adalah teknik ensemble yang membangun beberapa model pelatihan dari resampling (bootstrap) data, kemudian menggabungkan prediksinya (biasanya dengan voting untuk klasifikasi atau rata-rata untuk regresi).

πŸ“Š Proses Bagging:

  1. Buat beberapa dataset dari data asli dengan sampling acak dengan pengembalian (bootstrap).
  2. Latih model (misalnya: Decision Tree) pada masing-masing dataset.
  3. Gabungkan prediksi semua model:
    • Voting (klasifikasi)
    • Rata-rata (regresi)

βœ”οΈ Kelebihan Bagging:

  • Mengurangi variance
  • Bagus untuk model overfitting seperti Decision Tree

πŸ“Œ Contoh Algoritma:

  • Random Forest (bagging + decision tree)

πŸ”Έ 2. Boosting

πŸ“˜ Definisi:

Boosting adalah teknik ensemble yang membangun model secara berurutan, di mana setiap model baru mencoba memperbaiki kesalahan dari model sebelumnya.

πŸ“Š Proses Boosting:

  1. Model pertama dilatih pada data asli.
  2. Kesalahan dari model pertama dianalisis.
  3. Model berikutnya dilatih lebih fokus pada data yang sebelumnya salah diklasifikasikan.
  4. Gabungkan semua model dengan bobot (weighted vote).

βœ”οΈ Kelebihan Boosting:

  • Mengurangi bias
  • Memberikan akurasi tinggi
  • Efektif meskipun dengan model dasar sederhana (misalnya stump decision tree)

⚠️ Kekurangan:

  • Lebih mudah overfitting jika tidak dikontrol
  • Lebih sensitif terhadap noise

πŸ“Œ Contoh Algoritma:

  • AdaBoost (Adaptive Boosting)
  • Gradient Boosting
  • XGBoost (Extreme Gradient Boosting)

πŸ†š Perbandingan Bagging vs Boosting

Aspek Bagging Boosting
Pendekatan Paralel (bersamaan) Serial (berurutan)
Fokus Mengurangi Variance Mengurangi Bias
Sensitivitas Tidak sensitif terhadap noise Lebih sensitif terhadap noise
Kompleksitas Lebih sederhana Lebih kompleks
Contoh Algoritma Random Forest AdaBoost, Gradient Boosting

✨ Kesimpulan:

  • Bagging cocok jika model overfitting, ingin hasil lebih stabil.
  • Boosting cocok jika model underfitting, ingin akurasi tinggi.
  • Keduanya adalah teknik powerful dalam membangun model prediksi yang kuat dan digunakan secara luas di kompetisi ML (Kaggle, dsb).