Multilayer Perceptron (MLP) dalam Deep Learning

Multilayer Perceptron (MLP)

Perkembangan Deep Learning dalam satu dekade terakhir benar-benar mengubah wajah dunia teknologi. Dari sistem rekomendasi, pengenalan wajah, hingga chatbot cerdas, hampir semuanya dibangun di atas fondasi neural network. Namun sebelum membahas arsitektur kompleks seperti Convolutional Neural Network (CNN) atau Transformer, ada satu model dasar yang wajib dipahami terlebih dahulu yaitu Multilayer Perceptron (MLP).

MLP bisa dianggap sebagai “gerbang masuk” menuju dunia deep learning yang lebih kompleks. Banyak mahasiswa IT dan praktisi data science pertama kali mengenal neural network melalui MLP karena arsitekturnya relatif sederhana namun cukup kuat untuk menyelesaikan berbagai permasalahan klasifikasi dan regresi. Memahami MLP bukan sekadar memahami satu algoritma, tetapi juga memahami bagaimana jaringan saraf tiruan belajar dari data melalui proses forward dan backward propagation.

Apa Itu Multilayer Perceptron (MLP)?

Multilayer Perceptron (MLP) adalah salah satu jenis Artificial Neural Network (ANN) yang terdiri dari lebih dari satu layer neuron. Berbeda dengan perceptron tunggal yang hanya memiliki satu lapisan input dan output, MLP memiliki satu atau lebih hidden layer di antara keduanya. Hidden layer inilah yang memungkinkan MLP mempelajari pola non-linear yang tidak bisa diselesaikan oleh model linear sederhana.

Secara konsep, MLP bekerja dalam skema supervised learning. Artinya, model dilatih menggunakan data yang sudah memiliki label. Misalnya, dataset berisi fitur tinggi badan dan berat badan dengan label “sehat” atau “tidak sehat”. MLP akan belajar memetakan input ke output berdasarkan contoh-contoh tersebut.

Struktur dasarnya terdiri dari:

  • Input Layer: Menerima fitur dari dataset.
  • Hidden Layer: Tempat transformasi dan pembelajaran pola terjadi.
  • Output Layer: Menghasilkan prediksi akhir.

MLP menggunakan fungsi aktivasi non-linear agar mampu menangani permasalahan kompleks. Tanpa fungsi aktivasi, jaringan hanya menjadi kombinasi linear biasa, yang tentu saja membatasi kemampuannya.

Arsitektur Multilayer Perceptron

Arsitektur MLP secara umum terdiri dari tiga komponen utama yaitu input layer, hidden layer, dan output layer. Masing-masing layer memiliki peran spesifik dalam proses pembelajaran.

1. Input Layer

Input layer berfungsi sebagai pintu masuk data ke dalam jaringan. Jumlah neuron pada layer ini sama dengan jumlah fitur pada dataset. Misalnya, jika dataset memiliki 10 fitur, maka input layer memiliki 10 neuron.

Layer ini tidak melakukan komputasi kompleks. Ia hanya meneruskan nilai ke layer berikutnya. Namun kualitas input sangat menentukan hasil akhir, sehingga preprocessing seperti normalisasi dan scaling menjadi sangat penting.

2. Hidden Layer

Hidden layer adalah inti dari MLP. Di sinilah proses transformasi data terjadi. Setiap neuron pada hidden layer menerima input, mengalikannya dengan bobot (weight), menambahkan bias, lalu menerapkan fungsi aktivasi.

Semakin banyak hidden layer dan neuron, semakin besar kapasitas model untuk mempelajari pola kompleks. Namun ini juga meningkatkan risiko overfitting.

3. Output Layer

Output layer menghasilkan prediksi akhir. Jumlah neuron pada layer ini tergantung pada jenis permasalahan:

  • Klasifikasi biner → 1 neuron
  • Klasifikasi multi-kelas → sesuai jumlah kelas
  • Regresi → 1 neuron

Cara Kerja Multilayer Perceptron

MLP bekerja melalui dua proses utama: forward propagation dan backpropagation.

1. Forward Propagation

Pada tahap ini, data mengalir dari input layer ke output layer. Setiap neuron menghitung:

z=(w1x1+w2x2+...+wnxn)+bz = (w_1x_1 + w_2x_2 + … + w_nx_n) + b

Kemudian nilai tersebut dimasukkan ke fungsi aktivasi:

a=f(z)a = f(z)

Proses ini berlangsung hingga mencapai output layer.

2. Perhitungan Error

Setelah menghasilkan output, model membandingkannya dengan label asli menggunakan fungsi loss.

3. Backpropagation

Error yang dihasilkan disebarkan kembali ke belakang untuk memperbarui bobot. Proses ini menggunakan turunan parsial untuk menghitung seberapa besar kontribusi masing-masing bobot terhadap error.

4. Update Bobot

Bobot diperbarui menggunakan algoritma Gradient Descent:

w=wηLww = w – \eta \frac{\partial L}{\partial w}

Di mana η adalah learning rate.

Fungsi Aktivasi pada MLP

Fungsi aktivasi memberikan sifat non-linear pada jaringan.

1. Sigmoid

Menghasilkan nilai antara 0 dan 1. Cocok untuk klasifikasi biner, tetapi rentan vanishing gradient.

2. Tanh

Nilainya antara -1 hingga 1. Lebih stabil dibanding sigmoid, namun tetap memiliki masalah gradien kecil.

3. ReLU (Rectified Linear Unit)

f(x)=max(0,x)f(x) = max(0, x)

Paling populer karena sederhana dan mengurangi vanishing gradient.

4. Softmax

Digunakan pada klasifikasi multi-kelas untuk menghasilkan probabilitas.

Perbandingan Fungsi Aktivasi

FungsiRange OutputKelebihanKekurangan
Sigmoid0–1Cocok binerVanishing gradient
Tanh-1–1Zero-centeredTetap bisa vanishing
ReLU0–∞Cepat & stabilDying ReLU
Softmax0–1 (prob)Multi-classButuh normalisasi

Rumus Dasar dalam MLP

Neuron dalam MLP bekerja menggunakan persamaan linear sederhana yang ditambah fungsi non-linear.

1. Persamaan Neuron

z=(wixi)+bz = \sum (w_i x_i) + b

Intinya, setiap input dikalikan bobotnya lalu dijumlahkan.

2. Fungsi Loss

  • MSE (Mean Squared Error) untuk regresi
  • Cross Entropy untuk klasifikasi

Loss mengukur seberapa jauh prediksi dari nilai sebenarnya.

3. Gradient Descent

Digunakan untuk meminimalkan loss. Bayangkan seperti menuruni bukit menuju titik terendah.

Kelebihan Multilayer Perceptron

  • Mampu menangani data non-linear
    MLP bisa menyelesaikan masalah yang tidak bisa ditangani model linear sederhana.
  • Fleksibel untuk berbagai kasus
    Bisa digunakan untuk klasifikasi maupun regresi.
  • Struktur relatif sederhana
    Cocok untuk pembelajaran dasar deep learning.

Kekurangan Multilayer Perceptron

  • Rentan overfitting
    Jika terlalu banyak neuron dan data sedikit, model bisa menghafal data.
  • Kurang optimal untuk data spasial
    Untuk citra, CNN lebih unggul.
  • Butuh tuning hyperparameter
    Jumlah layer dan learning rate sangat memengaruhi performa.

Perbandingan MLP dengan Model Deep Learning Lain

Perbandingan MLP vs CNN vs RNN

AspekMLP (Multilayer Perceptron)CNN (Convolutional Neural Network)RNN (Recurrent Neural Network)
Tipe Data UtamaTabular, numerik umumData citra / imageData sequential (time series, teks, suara)
Performa pada Data CitraKurang optimalSangat optimalTidak dirancang untuk citra
Performa pada Data SequentialTidak cocokKurang cocokSangat cocok
ParameterBanyak (fully connected)Lebih efisien (weight sharing)Lebih kompleks karena state temporal
Fitur SpasialTidak eksplisitMenangkap pola lokal (spatial features)Tidak fokus pada spasial
Memory / StateTidak adaTidak adaAda hidden state (memori temporal)
Kompleksitas ArsitekturLebih sederhanaMenengahLebih kompleks

Studi Kasus Penggunaan MLP

Beberapa penggunaan umum MLP antara lain:

  • Klasifikasi Data Tabular
    Misalnya prediksi kelayakan kredit.
  • Prediksi Regresi
    Seperti memprediksi harga rumah berdasarkan fitur numerik.
  • Deteksi Pola Sederhana
    Digunakan dalam fraud detection skala kecil.

MLP sering menjadi baseline model sebelum mencoba arsitektur yang lebih kompleks.

Kesimpulan

Multilayer Perceptron (MLP) adalah fondasi penting dalam deep learning. Meskipun terlihat sederhana dibanding arsitektur modern seperti CNN atau Transformer, MLP tetap relevan terutama untuk data tabular dan permasalahan klasifikasi maupun regresi skala menengah.

Memahami MLP berarti memahami dasar bagaimana neural network belajar: dari proses forward propagation, perhitungan loss, hingga pembaruan bobot melalui backpropagation. Dengan fondasi ini, mempelajari model deep learning yang lebih kompleks akan terasa jauh lebih mudah.

Artikel ini merupakan bagian dari seri artikel belajar Kecerdasan Buatan dan jika ada ide topik yang mau kami bahas silahkan komen di bawah ya..

Write a Comment

Leave a Comment

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Subscribe to our Newsletter

Subscribe to our email newsletter to get the latest posts delivered right to your email.
Pure inspiration, zero spam ✨