Chapter 13 Large Scale Memory Storage and Retrieval (LAMSTAR) Network





Jaringan saraf yang dibahas dalam bagian ini adalah arti resmi jaringan saraf untuk penyimpanan memori skala besar dan pengambilan informasi [Graupe dan Kordylewski, 1996a, b]. Jaringan ini mencoba untuk meniru proses dari sistem saraf pusat manusia (CNS), tentang penyimpanan dan pengambilan pola, kesan dan termasuk proses melupakan dan mengingat. Ia mencoba untuk mencapai hal ini tanpa bertentangan dengan temuan dari fisiologis dan pengamatan psikologis, setidaknya dalam input / output. Selanjutnya, yang LAMSTAR (besar Memory penyimpanan dan pengambilan) Model dianggap sebagai upaya untuk melakukannya dengan cara komputasi, menggunakan alat dari jaringan saraf dari bagian sebelumnya, terutama SOM (Self Organizing Map) modul jaringan berbasis, dikombinasikan dengan alat keputusan statistik. Oleh karena itu jaringan LAMSTAR bukan saja jaringan tertentu tetapi sistem jaringan untuk penyimpanan, pengakuan, perbandingan dan keputusan itu dalam kombinasi memungkinkan seperti penyimpanan dan pengambilan yang harus diselesaikan.



Jaringan LAMSTAR saraf dirancang khusus untuk aplikasi untuk pemulihan, diagnosis,  klasifikasi, prediksi dan keputusan masalah yang melibatkan jumlah kategori yang sangat besar. Yang dihasilkan LAMSTAR ( Memory skala besar Penyimpanan dan Pemulihan) jaringan saraf [graupe 1997, Graupe dan Kordylewski, 1998]  dirancang untuk menyimpan dan mengambil pola dalam komputasi secara efisien, menggunakan alat jaringan saraf, terutama SOM Kohonen ini (Self Organizing Peta) modul jaringan berbasis [Kohonen, 1988], dikombinasikan dengan keputusan statistic alat.
Dengan struktur seperti yang dijelaskan dalam bagian. 13.2, jaringan LAMSTAR cocok untuk menangani masalah analitis dan non-analitis di mana data dari banyak kategori yang berbeda dan di mana beberapa kategori mungkin hilang, di mana data membutuhkan algoritma yang sangat cepat [Graupe 1997, Graupe dan Kordylewski, 1998]. Fitur-fitur ini jarang ditemukan,terutama dalam jaringan saraf lainnya.
LAMSTAR dapat dilihat seperti dalam sistem cerdas, di mana ahli informasi secara terus menerus mengembangkan setiap setiap kasus melalui pembelajaran dan korelasi. Yang unik tentang jaringan LAMSTAR adalah kemampuan untuk menangani data non-analitis, yang mungkin tepat atau tidak jelas dan di mana beberapa kategori mungkin hilang. LAMSTAR secara khusus dikembangkan dalam aplikasi untuk masalah yang melibatkan memori yang sangat besar yang berhubungan dengan banyak kategori berbeda-beda (atribut), di mana beberapa data yang tepat sedangkan data lainnya kabur dan mana (untuk masalah yang diberikan) beberapa data kategori terkadang menjadi benar-benar hilang. Akibatnya, jaringan ini  telah berhasil diterapkan dalam banyak masalah keputusan, diagnosis dan pengakuan di berbagai bidang.
Prinsip-prinsip utama dari jaringan saraf (NN) yang umum untuk hampir semua pendekatan jaringan saraf.  Unit dasar saraf atau sel (neuron) adalah salah satu yang digunakan dalam semua jaringan saraf, seperti yang dijelaskan dalam Bab 2 dan 4.
Untuk keluaran neuron dirumuskan sebagai berikut:

Dimana, f = fungsi aktivasi.
Dengan menggunakan struktur link bobot untuk keputusannya dan pencarian, jaringan LAMSTAR yang menggunakan bukan hanya nilai-nilai memori yang tersimpan w (ij) seperti dalam jaringan saraf lainnya, tetapi juga memori yang saling berkaitan ini  ke modul keputusan dan antara memori sendiri. Pemahaman LAMSTAR ini dengan demikian didasarkan tidak hanya pada memori (dalam hal bobot yang penyimpanan) tetapi juga pada hubungan di antara mereka, (dalam hal link bobot). Hubungan ini (link bobot) merupakan dasar untuk operasi. Dengan Hukum Hebb ini [Hebb, 1949], interkoneksi bobot (link bobot) menyesuaikan dan berfungsi untuk membangun ow sinyal trafik neuronal antara kelompok neuron, maka interkoneksi link-bobot (tidak berat memori penyimpanan) yang berkaitan dengan trafik, meningkat dibandingkan dengan interkoneksi lainnya [Graupe, 1997; Graupe and Lynn, 1970].


Basic structural elements
Modul penyimpanan dasar dari jaringan LAMSTAR adalah pengubahan oleh Kohonen terhadap modul SOM [Kohonen, 1988]. Sesuai dengan tingkat kedekatan bobot penyimpanan di BAM-akal untuk setiap masukan subword yang sedang dipertimbangkan per setiap kata masukan yang diberikan kepada jaringan saraf. Di jaringan LAMSTAR informasi disimpan dan diproses melalui link korelasi antara neuron individu dalam modul SOM terpisah. Kemampuannya untuk menangani besar jumlah kategori ini karena penggunaannya perhitungan sederhana link bobot dan oleh penggunaan fitur dari memori yang hilang. Link bobot adalah mesin utama jaringan, menghubungkan banyak lapisan SOM modul seperti yang penekanannya pada (co) hubungan link bobot antara atom memori, bukan pada atom memori (BAM bobot dari modul SOM) sendiri. Dengan cara ini, desain menjadi lebih dekat dengan pengolahan pengetahuan dalam biologi sistem saraf pusat daripada praktek di sebagian besar arti konvensional resmi saraf jaringan. Fitur yang hilang adalah fitur dasar jaringan biologis yang efisiensi tergantung pada hal itu, seperti kemampuan untuk menangani set data yang tidak lengkap.
Nilai input dari kode matriks X dinyatakan sebagai berikut:

Dimana T merupakan nilai transpos.

Gambar 13.1 Blog Diagram LAMSTAR
Banyak masukan subwords (dan sama, banyak masukan untuk hampir semua saraf lainnya Pendekatan jaringan) dapat diturunkan setelah pre-processing. Hal ini terjadi di masalah sinyal / image-processing, dimana hanya autoregressive atau diskrit spektral / parameter wavelet dapat berfungsi sebagai subword daripada sinyal itu sendiri.

Gambar 13.2 Dasar arsitektur LAMSTAR: penyederhanaan versi untuk sebagian besar aplikasi
Gambar 13.1 memberikan blok-diagram yang lengkap dan umum dari jaringan LAMSTAR. Sebuah diagram yang lebih mendasar, untuk digunakan di sebagian besar aplikasi di mana jumlah neuron per lapisan SOM tidak besar, sedangkan pada Gambar. 13.2. ini adalah penyederhanaan sedikit arsitektur umum.

    

Melupakan diperkenalkan oleh faktor melupakan F (k); seperti yang:
Untuk setiap L Link berat , di mana k menunjukkan kata masukan k’th dipertimbangkan dan di mana F (k) adalah selisih kecil yang bervariasi dari waktu ke waktu (lebih k).
Dalam realisasi tertentu LAMSTAR itu, penyesuaian sebagai :
F (k) = 0 lebih berturut-turut kata p – 1 dianggap input;                    (13: 10-a)
tapi
F (k) = bL per setiap kata masukan p’th                                             (13: 10-b)
di mana L adalah link berat dan
b <1                                                                                                     (13: 10-c)
katakanlah, b = 0.5:
Selanjutnya, dalam disukai realisasi Lmax tak terbatas, kecuali untuk pengurangan.
Memperhatikan rumus pers. (13,9) dan (13.10), Link bobot Li,j hamper nol, jika tidak berhasil dipilih. Oleh karena itu, korelasi sponsor L yang tidak berpartisipasi dalam diagnosis / keputusan dari waktu ke waktu, atau menyebabkan kesalahan diagnosis / keputusan secara bertahap terlupakan. Fitur melupakan memungkinkan jaringan untuk cepat mengambil informasi terbaru. Karena nilai link ini menurun secara bertahap dan tidak drop langsung ke nol, jaringan dapat kembali mengambil informasi terkait dengan link tersebut. Fitur melupakan jaringan LAMSTAR membantu untuk menghindari kebutuhan untuk mempertimbangkan jumlah yang sangat link besar.


         Tidak ada alasan untuk menghentikan pelatihan sebagai pertama n set (kata input) data yang hanya untuk menetapkan bobot awal untuk pengujian set kata-kata input (yang, memang, menjalankan situasi normal), di LAMSTAR, kita masih bisa melanjutkan pelatihan ditetapkan oleh set (input-kata oleh input-kata). Dengan demikian, NETWORK terus menyesuaikan diri selama pengujian dan operasional berjalan rutin


      

        Karena semua informasi dalam jaringan LAMSTAR dikodekan dalam korelasi link, LAMSTAR dapat dimanfaatkan sebagai alat analisis data. Dalam hal ini system menyediakan analisis data input seperti mengevaluasi pentingnya subwords input, kekuatan korelasi antara kategori, atau kekuatan korelasi antara neuron individu.
analisis sistem input data melibatkan dua tahap:
(1) pelatihan dari sistem (seperti yang dijelaskan dalam Sec. 13.4)
(2) analisis nilai-nilai link korelasi seperti yang dibahas di bawah ini.
Karena link korelasi yang menghubungkan cluster (pola) di antara kategori (peningkatan / penurunan) dalam fase pelatihan, adalah mungkin untuk keluar tunggal link dengan nilai tertinggi. Oleh karena itu, cluster dihubungkan dengan link dengan nilai tertinggi menentukan tren dalam data masukan. Berbeda dengan menggunakan data metode rata-rata, kasus terisolasi dari input data LAMSTAR yang Hasil, mencatat fitur melupakan nya. Selanjutnya, struktur LAMSTAR membuat sangat kuat untuk hilang subwords masukan. Setelah fase pelatihan selesai, sistem LAMSTAR tertinggi Link korelasi (link bobot) dan pesan laporan yang terkait dengan kelompok di modul SOM dihubungkan dengan link ini. Link dapat dipilih dengan dua metode:
  • sponsor dengan nilai melebihi pra-defined threshold,
  • sejumlah nomor link di menghubungkan dengan nilai tertinggi.



Correlation feature, Pertimbangkan (m) layer yang paling signifikan (module) terhadap keputusan keluaran (dk) dan (n) neuron yang paling signifikan di masing-masing (m) lapisan, yang setuju dengan keputusan output yang sama. (Contoh: misalkan m = n = 4). Kita  katakan bahwa korelasi antara subwords juga dapat ditampung dalam jaringan dengan menetapkan subword masukan spesifik korelasi itu, subword ini dibentuk oleh pre-processing.
Correlation-Layer Set-Up Rule: Membangun lapisan SOM tambahan dilambangkan sebagai CORRELATION-LAYERS λ (p / q, dk), sehingga nilai dari penjumlahan CORRELATION-LAYERS ini adalah:

(Contoh: CORRELATION-LAYERS untuk kasus n = m = 4 adalah: λ (1 / 2, dk); λ (1/ 3, dk); λ (1 / 4, dk); λ (2 / 3, dk); λ (2 / 4, dk); λ (3 / 4, dk).)
Selanjutnya, apabila neuron N (i; p) dan N (j; q) secara bersamaan (yaitu, untuk kata masukan yang diberikan sama) menang di masing-masing lapisan (p) dan (q) , dan kedua neuron ini juga milik subset neuron ‘ most significant’ di lapisan ‘ most significant’ (seperti yang p dan q adalah ‘most significant’ lapisan), maka kita mendeklarasikan neuron N (i; p / j; q) di λ Korelasi-layer (p / q, dk) menjadi neuron pemenang dalam korelasi-layer dan kami menghargai / menghukum output link-berat L (i, p / j, q – dk) sebagai keperperluan untuk setiap neuron pemenang di setiap lapisan masukan SOM lainnya.
(Contoh: neuron dalam korelasi-lapisan λ (p / q) adalah: N (1, p / 1, q); N (1, p / 2, q); N (1, p / 3, q); N (1, p / 4, q); N (2, p / 1, q); …N (2, p / 4, q); N (3, p / 1; q): …N (4, p / 1, q); …N (4, p / 4, q), total neuron mxm di korelasi-layer).
Setiap neuron pemenang dalam lapisan korelasi diperlakukan dan berbobot selama setiap neuron pemenang di lapisan lain (input-SOM) berbobot untuk setiap lapisan output neuron yang bersangkutan dan diperbarui. Jelas, neuron pemenang (per kata masukan yang diberikan), jika ada, di lapisan korelasi p / q adalah neuron N (i; p = j; q) di lapisan yang mana kedua neuron N (i, p) di masukan lapisan (p) dan neuron N (j, q) pada lapisan (q) adalah pemenang untuk kata masukan yang diberikan

Interpolation/Extrapolation via Internal Link: Untuk kata masukan yang diberikan yang berhubungan dengan keputusan output dk, jika tidak ada masukan subword yang berhubungan dengan lapisan (p), maka neuron N (i, p) yang memiliki summed-correlation link tinggi (beban internal link) dengan memenangkan neuron (untuk kata input yang sama) di lapisan lain v, akan dianggap sebagai interpolasi / ekstrapolasi neuron di lapisan p untuk masukan kata itu. Namun, tidak ada imbalan / hukuman yang akan diterapkan untuk neuron selama itu adalah neuron interpolasi / ekstrapolasi.
Interpolation/Extrapolation via Correlation Layers: Misalkan p menjadi lapisan ‘paling signifikan’ dan misalkan i menjadi ‘neuron yang paling signifikan yang  setuju terhadap keputusan output dk di lapisan p, di mana tidak ada masukan subword dalam kata masukan yang diberikan berkaitan dengan lapisan p. Dengan demikian, neuron N (i, p) dianggap sebagai neuron interpolasi / ekstrapolasi untuk lapisan p jika memenuhi:


di mana v berbeda dari i dan di mana L (i, p / j, q – dk) menunjukkan bobot link dari korelasi-layer λ (p / q). Perhatikan bahwa dalam setiap lapisan q hanya ada satu pemenang neuron untuk kata masukan yang diberikan, dilambangkan sebagai N (w, q), dimana w mungkin ada disetiap lapisan q’th.
(Contoh: Misalkan p = 3. Jadi pertimbangkan korelasi-lapisan λ (1 / 3, dk); λ (2 / 3, dκ); λ (3 / 4, dk) sehingga: q = 1, 2, 4. )
 redundansi melalui Korelasi-Layers: Misalkan p menjadi ‘paling signifikan’ lapisan dan membiarkan saya menjadi ‘paling signifikan’ neuron di lapisan itu. Lapisan p berlebihan jika untuk semua kata masukan ada ada lagi ‘paling signifikan’ lapisan q sehingga, untuk setiap keputusan output dan untuk neuron setiap N (i, p), hanya satu korelasi neuron i; p / j, q (yaitu, hanya satu j per masing-masing seperti i, p) memiliki keluaran-link bobot nol non untuk setiap dk keputusan output, sehingga setiap neuron N (j, p) selalu dikaitkan dengan hanya satu neuron N (j, p) di beberapa lapisan p.
(Contoh: Neuron N (1, p) selalu dikaitkan dengan neuron N (3, q) dan tidak pernah dengan N (1, q) atau N (2, q) atau N (4, q), sedangkan neuron N (2, p) selalu dikaitkan dengan N (4, q) dan tidak pernah dengan neuron lain di lapisan (q). Juga, melihat properti (d) di atas.




Jaringan LAMSTAR saraf menggunakan fitur dasar dari banyak jaringan saraf lainnya, dan mengadopsi modul SOM Kohonen ini [Kohonen, 1977, 1984] dengan mereka asosiatif-memori-pengaturan berdasarkan bobot penyimpanan (wij dalam Bab ini) dan WTA-nya (Pemenang-Take-Semua) fitur, hal itu berbeda dalam struktur saraf di setiap neuron memiliki tidak hanya bobot penyimpanan wij (lihat Bab 8 di atas), tetapi juga link bobot LIJ. Fitur ini langsung mengikuti Hukum Hebb ini [Hebb, 1949] dan hubungannya dengan Dog eksperimen Pavlov, seperti yang dibahas di Sec. 3.1. Hal ini juga mengikuti Minsky ini k-garis Model [Minsky, 1980] dan penekanan Kant pada peran Verbindungen penting dalam \ pemahaman “, yang jelas berkaitan dengan kemampuan untuk memutuskan. Oleh karena itu, tidak hanya kesepakatan LAMSTAR dengan dua jenis bobot neuron (untuk penyimpanan dan untuk rujukan ke lapisan lain), tapi di LAMSTAR itu, bobot Link adalah orang-orang yang menghitung untuk tujuan keputusan. bobot penyimpanan membentuk atom \ memori “dalam arti Kantian [Ewing, 1938]. keputusan LAMSTAR ini semata-mata berdasarkan pada link bobot-lihat Sec ini. 13.2 di bawah ini.
LAMSTAR, seperti semua jaringan saraf lainnya, mencoba untuk memberikan representasi dari masalah itu harus memecahkan (Rosenblatt, 1961). representasi ini, mengenai keputusan jaringan, dapat dirumuskan dalam hal pemetaan L nonlinear dari bobot antara input (vektor input) dan output, yang disusun dalam bentuk matriks. Oleh karena itu, L adalah fungsi pemetaan nonlinear yang entri adalah bobot antara input sebuah output, yang memetakan input ke keputusan output. Mengingat jaringan Back-Propagation (BP), bobot di setiap lapisan adalah kolom L. Hal yang sama berlaku untuk link bobot LIJ dari L untuk keputusan keluaran menang dalam jaringan LAMSTAR. Jelas, baik BP dan LAMSTAR, L bukan fungsi matriks seperti persegi, juga tidak semua kolom yang panjang yang sama. Namun, di BP, L memiliki banyak entri (bobot) di masing-masing kolom per keputusan output. Sebaliknya, di LAMSTAR, masing-masing kolom L hanya memiliki satu entri non-nol. Ini menyumbang baik untuk kecepatan dan transparansi LAMSTAR. bobot ada di BP tidak menghasilkan informasi langsung tentang apa nilai-nilai mereka maksud. Dalam LAMSTAR itu, bobot link langsung menunjukkan pentingnya fitur yang diberikan dan dari subword tertentu relatif terhadap keputusan tertentu, seperti yang ditunjukkan di Sec. 13,5 bawah. Algoritma LAMSTAR dasar memerlukan perhitungan hanya pers. (13,5) dan (13,7) per iterasi. Ini melibatkan operasi hanya penambahan / pengurangan dan thresholding sementara tidak ada perkalian yang terlibat, untuk lebih berkontribusi kecepatan komputasi yang LAMSTAR ini.
Jaringan LAMSTAR memfasilitasi analisis multidimensi variabel masukan untuk menetapkan, misalnya, bobot yang berbeda (penting) untuk item data, menemukan korelasi antara variabel masukan, atau melakukan identifikasi, pengakuan dan pengelompokan pola. Menjadi jaringan saraf, LAMSTAR dapat melakukan semua ini tanpa re-pemrograman untuk setiap masalah diagnostik.
Keputusan dari jaringan LAMSTAR saraf didasarkan pada banyak kategori data, di mana sering beberapa kategori yang kabur sementara beberapa yang tepat, dan sering kategori yang hilang (data set lengkap). Seperti disebutkan dalam Sec. 13.1 di atas, jaringan LAMSTAR dapat dilatih dengan data yang tidak lengkap atau kategori set. Oleh karena itu, karena fitur-fiturnya, jaringan LAMSTAR saraf adalah alat yang sangat efektif dalam situasi hanya seperti itu. Sebagai masukan, sistem menerima data yang didefinisikan oleh pengguna, seperti, sistem negara, parameter sistem, atau data yang sangat spesifik seperti yang ditunjukkan dalam contoh aplikasi yang disajikan di bawah ini. Kemudian, sistem membangun model (berdasarkan data dari pengalaman masa lalu dan pelatihan) dan pencarian pengetahuan yang disimpan untuk menemukan yang terbaik pendekatan / deskripsi untuk fitur / parameter yang diberikan sebagai input data. Input data dapat secara otomatis dikirim melalui sebuah antarmuka untuk input LAMSTAR ini dari sensor dalam sistem untuk didiagnosis, mengatakan, sebuah pesawat ke jaringan yang dibangun di.
Sistem LAMSTAR dapat dimanfaatkan sebagai:
  • Sistem diagnosis medis berbasis komputer [Kordylewski dan Graupe 2001, Nigam dan Graupe 2004, Muralidharan dan Rousche 2005].
  • Tool Untuk evaluasi keuangan.
  • Alat untuk pemeliharaan industri dan diagnosis kesalahan (pada baris yang sama seperti aplikasi untuk diagnosis medis).
  • Alat untuk data mining [Carino et al, 2005].
  • Alat untuk browsing dan informasi pengambilan.
  • Alat untuk analisis data, klasifikasi, browsing, dan prediksi [Sivaramakrishnan dan Graupe, 2004].
  • Alat untuk mendeteksi gambar dan pengakuan [Girado et al, 2004].
  • Bantuan Pengajaran.
  • Alat untuk menganalisis survei dan kuesioner tentang beragam item.

Semua aplikasi ini dapat mempekerjakan banyak jaringan saraf lain yang kita bahas. Namun, LAMSTAR memiliki kelebihan tertentu, seperti ketidakpekaan terhadap inisialisasi, menghindari minima lokal, kemampuan lupa (ini sering dapat diimplementasikan dalam jaringan lain), transparansi (bobot Link membawa informasi yang jelas mengenai bobot link di relatif pentingnya masukan tertentu, pada korelasinya dengan input lain, pada kemampuan deteksi inovasi dan redundansi data | melihat Secs 13,5 dan 13,6 di atas).. Yang terakhir memungkinkan download data tanpa penentuan sebelumnya signifikansi dan membiarkan jaringan memutuskan untuk dirinya sendiri, melalui link bobot untuk output. LAMSTAR itu, berbeda dengan jaringan lainnya, dapat bekerja tanpa gangguan jika set tertentu dari data (input-kata) tidak lengkap (hilang subwords) tanpa memerlukan pelatihan baru atau perubahan algoritmik. Demikian pula, subwords masukan dapat ditambahkan selama operasi jaringan tanpa pemrograman ulang saat mengambil keuntungan dari fitur melupakan nya. Selanjutnya, LAMSTAR yang sangat cepat, terutama dibandingkan dengan back-propagasi atau jaringan statistik, tanpa mengorbankan kinerja dan selalu belajar selama berjalan biasa.
Lampiran 13.A memberikan rincian algoritma LAMSTAR untuk Character Recognition masalah yang juga subjek Lampiran untuk Bab 5, 6, 7, 8, 9, 11 dan 12. Contoh aplikasi untuk keputusan dan diagnosis masalah medis yang diberikan dalam Lampiran 13.B bawah.


 
© Copyright 2035 dio okta mandala
Theme by Yusuf Fikri