22 - candrayu/SistemOperasiGenap24-25 GitHub Wiki
π§ Ensemble Method: Bagging dan Boosting
π Apa itu Ensemble Method?
Ensemble Method adalah teknik dalam Machine Learning yang menggabungkan beberapa model (biasanya model sederhana atau βweak learnersβ) untuk menghasilkan model prediksi yang lebih akurat dan stabil.
Tujuan utama:
β
Mengurangi bias
β
Mengurangi variance
β
Meningkatkan akurasi
πΈ 1. Bagging (Bootstrap Aggregating)
π Definisi:
Bagging adalah teknik ensemble yang membangun beberapa model pelatihan dari resampling (bootstrap) data, kemudian menggabungkan prediksinya (biasanya dengan voting untuk klasifikasi atau rata-rata untuk regresi).
π Proses Bagging:
- Buat beberapa dataset dari data asli dengan sampling acak dengan pengembalian (bootstrap).
- Latih model (misalnya: Decision Tree) pada masing-masing dataset.
- Gabungkan prediksi semua model:
- Voting (klasifikasi)
- Rata-rata (regresi)
βοΈ Kelebihan Bagging:
- Mengurangi variance
- Bagus untuk model overfitting seperti Decision Tree
π Contoh Algoritma:
- Random Forest (bagging + decision tree)
πΈ 2. Boosting
π Definisi:
Boosting adalah teknik ensemble yang membangun model secara berurutan, di mana setiap model baru mencoba memperbaiki kesalahan dari model sebelumnya.
π Proses Boosting:
- Model pertama dilatih pada data asli.
- Kesalahan dari model pertama dianalisis.
- Model berikutnya dilatih lebih fokus pada data yang sebelumnya salah diklasifikasikan.
- Gabungkan semua model dengan bobot (weighted vote).
βοΈ Kelebihan Boosting:
- Mengurangi bias
- Memberikan akurasi tinggi
- Efektif meskipun dengan model dasar sederhana (misalnya stump decision tree)
β οΈ Kekurangan:
- Lebih mudah overfitting jika tidak dikontrol
- Lebih sensitif terhadap noise
π Contoh Algoritma:
- AdaBoost (Adaptive Boosting)
- Gradient Boosting
- XGBoost (Extreme Gradient Boosting)
π Perbandingan Bagging vs Boosting
Aspek | Bagging | Boosting |
---|---|---|
Pendekatan | Paralel (bersamaan) | Serial (berurutan) |
Fokus | Mengurangi Variance | Mengurangi Bias |
Sensitivitas | Tidak sensitif terhadap noise | Lebih sensitif terhadap noise |
Kompleksitas | Lebih sederhana | Lebih kompleks |
Contoh Algoritma | Random Forest | AdaBoost, Gradient Boosting |
β¨ Kesimpulan:
- Bagging cocok jika model overfitting, ingin hasil lebih stabil.
- Boosting cocok jika model underfitting, ingin akurasi tinggi.
- Keduanya adalah teknik powerful dalam membangun model prediksi yang kuat dan digunakan secara luas di kompetisi ML (Kaggle, dsb).