Oleh = Mochammad Haldi Widianto

Sejak teknologi komputer modern memungkinkan pemodelan jaringan saraf dari setiap kompleksitas minat dalam jaringan saraf tiruan telah meningkat sehubungan dengan pesatnya perkembangan teknologi informasi. Selain itu, properti terpenting dari jaringan saraf tiruan adalah kemampuannya untuk belajar dari data lingkungan dan sebagai hasil dari pembelajaran untuk meningkatkan produktivitasnya. Salah satu struktur paling terkenal di antara berbagai jaringan saraf (NN) adalah struktur multilayer (perceptron). Multilayer perceptron berhasil digunakan untuk menyelesaikan banyak masalah kompleks seperti pengenalan pola, prediksi, pemrosesan sinyal, pengelompokan, dan klasifikasi data. Salah satu metode paling populer untuk mempelajari jaringan saraf tiruan multilayer dari propagasi langsung adalah algoritma kesalahan propagasi mundur. Algoritma pembelajaran yang diusulkan merupakan alat untuk meningkatkan efisiensi pembelajaran jaringan syaraf tiruan dengan menggunakan fungsi aktivasi nonlinier pada input neuron dan parameter jaringan tambahan yang dapat dikonfigurasi..

Mari kita pertimbangkan algoritma kesalahan backpopagation untuk jaringan saraf multilayer menggunakan neuron dengan input sinaptik nonlinear. Jaringan neural berdasarkan neuron dengan input non-linier memungkinkan peneliti menyetel parameter dua kali lebih banyak dalam pelatihan jaringan. Jadi pencarian cepat untuk minimum global dari fungsi kesalahan pelatihan jaringan saraf menyediakan. Dalam hal ini, dalam jaringan saraf multilayer, parameter kemiringan fungsi aktivasi pada input setiap neuron, nilai sinyal ambang (yang disebut sinyal perpindahan) dan nilai penguatan pada output dari neuron akan disesuaikan.

Mari kita pertimbangkan contoh pelatihan perceptron dua lapis dengan algoritma propagasi mundur menggunakan contoh solusi dari masalah XOR. Jaringan saraf terlatih (NN) terdiri dari tiga neuron lapisan tersembunyi dan satu neuron lapisan keluaran (hanya dua masukan dan satu keluaran). Sebagai perbandingan, kami akan membuat jaringan yang direalisasikan berdasarkan neuron standar, serta jaringan berdasarkan neuron dengan input nonlinier.

Nilai awal parameter dipilih sedemikian rupa agar sesuai dengan nilai awal energi kesalahan untuk perceptron multilayer di bawah model neuron yang berbeda. Kesalahan pembelajaran jaringan untuk jaringan saraf tiruan berdasarkan energi neuron standar adalah E = 0,13 sebagai hasil pelatihan jaringan saraf setelah melewati 600 epoch pembelajaran. Dengan nilai awal energi kesalahan adalah E ≈ 0,16. untuk jaringan saraf berbasis neuron dengan energi masukan nonlinier adalah E = 5,6 10-8 (Gbr. 2) .

Gambar 1. Grafik transmisi sinyal dari neuron j tersembunyi ke keluaran

neuron k

Gambar 2. Kurva pembelajaran NN

Gbr. 2 menunjukkan bahwa saat melatih perceptron berdasarkan neuron standar, jaringan saraf belum dilatih setelah melewati 600 iterasi pelatihan, karena energi kesalahan pembelajaran adalah 0,13. Dan ketika menggunakan perceptron multilayer berdasarkan neuron dengan input nonlinier, setelah melewati 500 siklus pelatihan, energi kesalahan sangat berkurang dan setelah 600 iterasi mencapai 5,6 ∙ 10-8. Sehingga learning error jaringan syaraf tiruan mengalami penurunan dari 0,16 menjadi 5,6 ∙ 10-8 yang menunjukkan kualitas pelatihan multilayer perceptron yang baik. Penting untuk dipertimbangkan di sini bahwa nilai awal energi kesalahan untuk kedua kasus secara praktis sama.

Dengan demikian, pelatihan jaringan saraf dengan algoritma propagasi mundur lebih efektif jika model neuron non-standar digunakan dalam perceptron multilayer, dan neuron dengan masukan nonlinier. Lebih banyak tuas pengaruh ditambahkan ke pelatihan jaringan saraf dan konvergensi cepat dari energi kesalahan disediakan berkat parameter pelatihan 135 yang dapat disesuaikan tambahan, seperti kemiringan fungsi sigmoid, perpindahan sinyal yang diterapkan ke penambah, sinyal parameter amplifikasi pada input neuron dan parameter amplifikasi sinyal pada output neuron

Referensi :

  1. Zhyldyz Musakulova, Eugeniy Mirkin, Elena Savchenko ,“ Synthesis of the Backpropagation Error Algorithm for a Multilayer Neural Network with Nonlinear Synaptic Inputs,” Computer Information Systems International University of Kyrgyzstan Bishkek, Kyrgyz Republic, IEEE