Algoritma Multi Layer Perceptron

123BISA

Dalam dunia teknologi, mungkin beberapa peribahasa atau pepatah berikut sesuai untuk menggambarkan keadaan perkembangan teknologi saat ini, yaitu: Patah tumbuh hilang berganti. Mati satu tumbuh seribu. Mengapa demikian? Perlu kita sadari bahwa pembahasan akan masalah teknologi itu tiada habisnya. Selesai kita menyelesaikan atau memahami tentang satu pembahasan teknologi, akan muncul lagi teknologi yang baru. Ketika suatu teknologi yang katakanlah kuno mulai ditinggalkan, pastilah akan ada begitu banyak teknologi baru yang lebih modern bermunculan. Sama halnya dengan pembahasan yang akan kami paparkan, untuk Greader sekalian saat ini.

Pada artikel kali ini, kita masih akan membahas tentang teknologi Neural Network atau Jaringan Saraf Tiruan (JST), akan tetapi akan kita spesifikan kepada pembahasan salah satu permodelan dalam JST yaitu tentang algoritma multi layer perceptron (MLP).

Seperti biasa, mari kita mengenal lebih jauh terlebih dahulu tentang apa itu Multi Layer Perceptron (MLP).

Multi layer perceptron (MLP), adalah salah satu permodelan dalam teknologi jaringan saraf tiruan (JST) dengan karakteristik memiliki nilai bobot yang lebih baik dari pada pemodelan yang lain, sehingga menghasilkan klasifikasi yang lebih akurat pula. Multi layer perceptron diperkenalkan pertama kali pada tahun 1969 oleh S. Papert dan M. Minsky. Seperti namanya, multi layer perceptron merupakan pengembangan dari perceptron tunggal, sehingga memiliki beberapa lapisan ataupun hidden layer, yang terletak diantara ruang input dan output layer. Berikut adalah gambaran lapisan / hidden layer pada MLP:

Multi layer perceptron juga termasuk jaringan saraf tiruan feed-forward yang memiliki sejumlah neuron atau saraf yang saling terhubung dengan neuron lainnya dengan neuron bobot penghubung. Dimana setiap neuron yang ada, merupakan sebuah unit yang memiliki tugas untuk memproses dan menghitung nilai aktivasi, atau inputeksasi yang melambangkan himpunan dari predecessor tiap unit, mulai dari input hingga output, atau dari unit satu ke unit lainnya.

Dalam penerapan metode multi layer perceptron, banyak algoritma yang dapat digunakan dalam mendukung metode ini dan dalam rangka meningkatkan hasil yang lebih baik dan akurat, diantaranya: Algoritma Levenberg-Marquardt dan Algoritma Genetika.

Algoritma Levenberg-Marquardt (LM) merupakan pengembangan dari algoritma backpropagation yang merupakan algoritma standar pada JST ataupun MLP. Algoritma Levenberg-Marquardt memiliki konvergensi yang cukup stabil, sehingga algoritma ini sering dan cocok untuk digunakan dalam pengembangan yang kecil hingga menengah tetapi tidak terlalu besar.

Pada algoritma backpropagation standar, proses bias dan update nilai bobot menggunakan teknik negative gradient descent secara langsung. Sedangkan pada algoritma Levenberg-Marquardt, backpropagation telah menggunakan pendekatan matrik Hesian (H) yang dapat dihitung dengan rumus :

Sedangkan untuk negative gradient descent dihitung dengan menggunakan rumus:

Dalam rumus tersebut, j yang dimaksudkan merupakan matrik jacobian yang berisikan turunan awal dari hasil error jaringan terhadap perhitungan bias dan nilai bobot jaringan. Sehingga perubahan nilai pembobot dapat dihitung dengan menggunakan rumus:

Algoritma selanjutnya adalah algoritma genetika yang merupakan sebuah metode perhitungan yang memanfaatkan proses dari penyeleksian alamiah yang kemudian dikenal dengan proses evolusi. Pada proses evolusi tersebut digambarkan dengan individu yang secara continue atau berkelanjutan mengalami proses perubahan dari bentuk dan terutama gen (genetika) agar mampu menyesuaikan kondisi dirinya dengan lingkungan tempat dia hidup (proses adaptasi), sehingga hanya individu yang kuatlah yang mampu untuk hidup dan tetap bertahan.

Dalam seleksi alamiah, proses yang ada di dalamnya melibatkan beberapa hal, seperti perubahan genetika yang terjadi pada individu yang disebabkan oleh proses kembang biak individu, serta percampuran genetika lain. Dalam proses ini, proses pengembang biakan menjadi faktor utama yang harus diperhatikan, sehingga didapatkan hipotesa bagaimana caranya untuk mendapatkan hasil keturunan yang lebih baik serta kuat dari sebelumnya.

Algoritma genetika pertama kali ditemukan oleh seorang peneliti bernama John Holland yang kemudian algoritma ini dikembangkan lagi oleh muridnya yang bernama David Goldberg. Algoritma genetika memiliki metodologi optimasi yang lebih sederhana dibandingkan dengan LM, metodologi tersebut antara lain:

  1. Menginisialisasi atau menetapkan populasi dari solusi dalam jumlah tertentu.
  2. Melakukan perhitungan fungsi nilai fitnes pada semua solusi yang terdapat dalam populasi.
  3. Mengambil beberapa solusi yang memiliki nilai fitnes function yang lebih tinggi.
  4. Melakukan pengoptimalan dengan cara memindahkan (mutasi) dan menyilangkan (crossover) fungsi sesuai dengan kebutuhan.
  5. Menetapkan solusi paling baik sebagai hasil akhir terhadap masalah yang telah dioptimalkan.

Terdapat 2 istilah yang muncul dalam proses analisa permasalahan pada algoritma genetika, yaitu: Hard Constraint dengan ciri solusi yang dihasilkan tidak boleh dilanggar sama sekali, dan Soft Constraint dimana batasan solusi yang dihasilkan masih dapat dilanggar.

Nah, mungkin itulah sedikit penjelasan yang dapat kami bagikan kepada Greader sekalian, berkaitan dengan algoritma pada multi layer perceptron. Semoga bermanfaat dan menambah wawasan keilmuan kita tentunya.

Penulis : Catur

SUMBER :https://garudacyber.co.id/artikel/1461-algoritma-multi-layer-perceptron

Dukung kami berkembang dengan Subscribe