Perkembangan Deep Learning dalam satu dekade terakhir benar-benar mengubah wajah dunia teknologi. Dari sistem rekomendasi, pengenalan wajah, hingga chatbot cerdas, hampir semuanya dibangun di atas fondasi neural network. Namun sebelum membahas arsitektur kompleks seperti Convolutional Neural Network (CNN) atau Transformer, ada satu model dasar yang wajib dipahami terlebih dahulu yaitu Multilayer Perceptron (MLP).
MLP bisa dianggap sebagai “gerbang masuk” menuju dunia deep learning yang lebih kompleks. Banyak mahasiswa IT dan praktisi data science pertama kali mengenal neural network melalui MLP karena arsitekturnya relatif sederhana namun cukup kuat untuk menyelesaikan berbagai permasalahan klasifikasi dan regresi. Memahami MLP bukan sekadar memahami satu algoritma, tetapi juga memahami bagaimana jaringan saraf tiruan belajar dari data melalui proses forward dan backward propagation.
Apa Itu Multilayer Perceptron (MLP)?
Multilayer Perceptron (MLP) adalah salah satu jenis Artificial Neural Network (ANN) yang terdiri dari lebih dari satu layer neuron. Berbeda dengan perceptron tunggal yang hanya memiliki satu lapisan input dan output, MLP memiliki satu atau lebih hidden layer di antara keduanya. Hidden layer inilah yang memungkinkan MLP mempelajari pola non-linear yang tidak bisa diselesaikan oleh model linear sederhana.
Secara konsep, MLP bekerja dalam skema supervised learning. Artinya, model dilatih menggunakan data yang sudah memiliki label. Misalnya, dataset berisi fitur tinggi badan dan berat badan dengan label “sehat” atau “tidak sehat”. MLP akan belajar memetakan input ke output berdasarkan contoh-contoh tersebut.
Struktur dasarnya terdiri dari:
- Input Layer: Menerima fitur dari dataset.
- Hidden Layer: Tempat transformasi dan pembelajaran pola terjadi.
- Output Layer: Menghasilkan prediksi akhir.
MLP menggunakan fungsi aktivasi non-linear agar mampu menangani permasalahan kompleks. Tanpa fungsi aktivasi, jaringan hanya menjadi kombinasi linear biasa, yang tentu saja membatasi kemampuannya.
Arsitektur Multilayer Perceptron
Arsitektur MLP secara umum terdiri dari tiga komponen utama yaitu input layer, hidden layer, dan output layer. Masing-masing layer memiliki peran spesifik dalam proses pembelajaran.
1. Input Layer
Input layer berfungsi sebagai pintu masuk data ke dalam jaringan. Jumlah neuron pada layer ini sama dengan jumlah fitur pada dataset. Misalnya, jika dataset memiliki 10 fitur, maka input layer memiliki 10 neuron.
Layer ini tidak melakukan komputasi kompleks. Ia hanya meneruskan nilai ke layer berikutnya. Namun kualitas input sangat menentukan hasil akhir, sehingga preprocessing seperti normalisasi dan scaling menjadi sangat penting.
2. Hidden Layer
Hidden layer adalah inti dari MLP. Di sinilah proses transformasi data terjadi. Setiap neuron pada hidden layer menerima input, mengalikannya dengan bobot (weight), menambahkan bias, lalu menerapkan fungsi aktivasi.
Semakin banyak hidden layer dan neuron, semakin besar kapasitas model untuk mempelajari pola kompleks. Namun ini juga meningkatkan risiko overfitting.
3. Output Layer
Output layer menghasilkan prediksi akhir. Jumlah neuron pada layer ini tergantung pada jenis permasalahan:
- Klasifikasi biner → 1 neuron
- Klasifikasi multi-kelas → sesuai jumlah kelas
- Regresi → 1 neuron
Cara Kerja Multilayer Perceptron
MLP bekerja melalui dua proses utama: forward propagation dan backpropagation.
1. Forward Propagation
Pada tahap ini, data mengalir dari input layer ke output layer. Setiap neuron menghitung:
Kemudian nilai tersebut dimasukkan ke fungsi aktivasi:
Proses ini berlangsung hingga mencapai output layer.
2. Perhitungan Error
Setelah menghasilkan output, model membandingkannya dengan label asli menggunakan fungsi loss.
3. Backpropagation
Error yang dihasilkan disebarkan kembali ke belakang untuk memperbarui bobot. Proses ini menggunakan turunan parsial untuk menghitung seberapa besar kontribusi masing-masing bobot terhadap error.
4. Update Bobot
Bobot diperbarui menggunakan algoritma Gradient Descent:
Di mana η adalah learning rate.
Fungsi Aktivasi pada MLP
Fungsi aktivasi memberikan sifat non-linear pada jaringan.
1. Sigmoid
Menghasilkan nilai antara 0 dan 1. Cocok untuk klasifikasi biner, tetapi rentan vanishing gradient.
2. Tanh
Nilainya antara -1 hingga 1. Lebih stabil dibanding sigmoid, namun tetap memiliki masalah gradien kecil.
3. ReLU (Rectified Linear Unit)
Paling populer karena sederhana dan mengurangi vanishing gradient.
4. Softmax
Digunakan pada klasifikasi multi-kelas untuk menghasilkan probabilitas.
Perbandingan Fungsi Aktivasi
| Fungsi | Range Output | Kelebihan | Kekurangan |
|---|---|---|---|
| Sigmoid | 0–1 | Cocok biner | Vanishing gradient |
| Tanh | -1–1 | Zero-centered | Tetap bisa vanishing |
| ReLU | 0–∞ | Cepat & stabil | Dying ReLU |
| Softmax | 0–1 (prob) | Multi-class | Butuh normalisasi |
Rumus Dasar dalam MLP
Neuron dalam MLP bekerja menggunakan persamaan linear sederhana yang ditambah fungsi non-linear.
1. Persamaan Neuron
Intinya, setiap input dikalikan bobotnya lalu dijumlahkan.
2. Fungsi Loss
- MSE (Mean Squared Error) untuk regresi
- Cross Entropy untuk klasifikasi
Loss mengukur seberapa jauh prediksi dari nilai sebenarnya.
3. Gradient Descent
Digunakan untuk meminimalkan loss. Bayangkan seperti menuruni bukit menuju titik terendah.
Kelebihan Multilayer Perceptron
- Mampu menangani data non-linear
MLP bisa menyelesaikan masalah yang tidak bisa ditangani model linear sederhana. - Fleksibel untuk berbagai kasus
Bisa digunakan untuk klasifikasi maupun regresi. - Struktur relatif sederhana
Cocok untuk pembelajaran dasar deep learning.
Kekurangan Multilayer Perceptron
- Rentan overfitting
Jika terlalu banyak neuron dan data sedikit, model bisa menghafal data. - Kurang optimal untuk data spasial
Untuk citra, CNN lebih unggul. - Butuh tuning hyperparameter
Jumlah layer dan learning rate sangat memengaruhi performa.
Perbandingan MLP dengan Model Deep Learning Lain
Perbandingan MLP vs CNN vs RNN
| Aspek | MLP (Multilayer Perceptron) | CNN (Convolutional Neural Network) | RNN (Recurrent Neural Network) |
|---|---|---|---|
| Tipe Data Utama | Tabular, numerik umum | Data citra / image | Data sequential (time series, teks, suara) |
| Performa pada Data Citra | Kurang optimal | Sangat optimal | Tidak dirancang untuk citra |
| Performa pada Data Sequential | Tidak cocok | Kurang cocok | Sangat cocok |
| Parameter | Banyak (fully connected) | Lebih efisien (weight sharing) | Lebih kompleks karena state temporal |
| Fitur Spasial | Tidak eksplisit | Menangkap pola lokal (spatial features) | Tidak fokus pada spasial |
| Memory / State | Tidak ada | Tidak ada | Ada hidden state (memori temporal) |
| Kompleksitas Arsitektur | Lebih sederhana | Menengah | Lebih kompleks |
Studi Kasus Penggunaan MLP
Beberapa penggunaan umum MLP antara lain:
- Klasifikasi Data Tabular
Misalnya prediksi kelayakan kredit. - Prediksi Regresi
Seperti memprediksi harga rumah berdasarkan fitur numerik. - Deteksi Pola Sederhana
Digunakan dalam fraud detection skala kecil.
MLP sering menjadi baseline model sebelum mencoba arsitektur yang lebih kompleks.
Kesimpulan
Multilayer Perceptron (MLP) adalah fondasi penting dalam deep learning. Meskipun terlihat sederhana dibanding arsitektur modern seperti CNN atau Transformer, MLP tetap relevan terutama untuk data tabular dan permasalahan klasifikasi maupun regresi skala menengah.
Memahami MLP berarti memahami dasar bagaimana neural network belajar: dari proses forward propagation, perhitungan loss, hingga pembaruan bobot melalui backpropagation. Dengan fondasi ini, mempelajari model deep learning yang lebih kompleks akan terasa jauh lebih mudah.
Artikel ini merupakan bagian dari seri artikel belajar Kecerdasan Buatan dan jika ada ide topik yang mau kami bahas silahkan komen di bawah ya..