Pembahasan Convolution Neural Network Pertemuan 6 Pembelajaran Mesin
NAMA : RIKSON HABINSARAN BANUREA
NIM :
17190511
KELAS : TI-17.4F.01
MATKUL :
PEMBELAJARAN MESIN
TUGAS PERTEMUAN 6
Pembahasan Convolution Neural Network
Sebelum Menjawab
Apa Itu Convolutional Neural Network, Saya Yakin Kalian Sudah Mengetahui Apa
Itu Neural Network. Jika Anda Ragu Pada Dasar-Dasarnya, Lihat Tautan Ini. Bergerak.
Jaringan Saraf Konvolusi Mirip Dengan Jaringan Perceptron Multi-Layer. Perbedaan
Utama Adalah Apa Yang Dipelajari Jaringan, Bagaimana Strukturnya, Dan Tujuan
Apa Yang Paling Sering Digunakan. Jaringan Saraf Convolutional Juga
Terinspirasi Dari Proses Biologis, Strukturnya Memiliki Kemiripan Dengan
Korteks Visual Yang Ada Pada Hewan. CNN Sebagian Besar Diterapkan Dalam Domain
Visi Komputer Dan Telah Sangat Berhasil Dalam Mencapai Kinerja Seni Pada
Berbagai Kasus Uji.
Apa Yang
Dipelajari Lapisan Tersembunyi??
Lapisan Tersembunyi Di CNN Umumnya Adalah Lapisan Konvolusi Dan Penyatuan
(Downsampling). Di Setiap Lapisan Konvolusi, Kami Mengambil Filter Berukuran
Kecil Dan Memindahkan Filter Itu Melintasi Gambar Dan Melakukan Operasi
Konvolusi. Operasi Konvolusi Tidak Lain Adalah Perkalian Matriks
Elemen-Bijaksana Antara Nilai Filter Dan Piksel Dalam Gambar Dan Nilai Yang
Dihasilkan Dijumlahkan.
Nilai Filter
Disetel Melalui Proses Pelatihan Berulang Dan Setelah Jaringan Saraf Dilatih
Untuk Sejumlah Epoch Tertentu, Filter Ini Mulai Mencari Berbagai Fitur Dalam
Gambar. Ambil Contoh Deteksi Wajah Menggunakan Jaringan Saraf Convolutional. Lapisan
Jaringan Sebelumnya Mencari Fitur Sederhana Seperti Tepi Pada Orientasi Yang
Berbeda, Dll. Saat Kita Maju Melalui Jaringan, Lapisan Mulai Mendeteksi Fitur
Yang Lebih Kompleks Dan Ketika Anda Melihat Fitur Yang Terdeteksi Oleh Lapisan
Terakhir, Mereka Hampir Terlihat Seperti Wajah.
Sekarang,
Mari Beralih Ke Pooling Layer. Pooling Layer Digunakan Untuk Menurunkan Sampel
Gambar. Gambar Akan Berisi Banyak Nilai Piksel Dan Biasanya Mudah Bagi Jaringan
Untuk Mempelajari Fitur-Fiturnya Jika Ukuran Gambar Diperkecil Secara Bertahap.
Lapisan Pooling Membantu Dalam Mengurangi Jumlah Parameter Yang Diperlukan Dan
Karenanya, Ini Mengurangi Perhitungan Yang Diperlukan. Pooling Juga Membantu
Menghindari Overfitting. Ada Dua Jenis Operasi Pooling Yang Dapat Dilakukan:
· *Max
Pooling — Memilih Nilai Maksimum
· *Average
Pooling — Jumlahkan Semua Nilai Dan Bagi Dengan Jumlah Total Nilai
Penyatuan Rata-Rata
Jarang Digunakan, Anda Dapat Menemukan Penyatuan Maksimum Yang Digunakan Di
Sebagian Besar Contoh.
Kode
Sebelum Kita
Memulai Pengkodean, Saya Ingin Memberi Tahu Anda Bahwa Kumpulan Data Yang Akan
Kita Gunakan Adalah Kumpulan Data Digit MNIST Dan Kita Akan Menggunakan
Perpustakaan Keras Dengan Backend Tensorflow Untuk Membangun Model. OK Cukup. Mari
Kita Lakukan Beberapa Pengkodean.
Pertama,
Mari Kita Lakukan Beberapa Impor Yang Diperlukan. Pustaka Keras Membantu Kami
Membangun Jaringan Saraf Convolutional Kami. Kami Mengunduh Dataset Mnist
Melalui Keras. Kami Mengimpor Model Sekuensial Yang Merupakan Model Keras Yang
Dibuat Sebelumnya Di Mana Anda Bisa Menambahkan Lapisan. Kami Mengimpor Lapisan
Konvolusi Dan Penyatuan. Kami Juga Mengimpor Lapisan Padat Karena Digunakan
Untuk Memprediksi Label. Lapisan Untuk
Mengurangi Overfitting Dan Lapisan Rata Memperluas Vektor Tiga Dimensi
Menjadi Vektor Satu Dimensi. Akhirnya, Kami Mengimpor Numpy Untuk Operasi
Matriks.
Sebagian Besar
Pernyataan Dalam Kode Di Atas Akan Menjadi Sepele, Saya Hanya Akan Menjelaskan
Beberapa Baris Kode. Kami Membentuk Kembali X_Train Dan X_Test Karena CNN Kami
Hanya Menerima Vektor Empat Dimensi. Nilai 60000 Mewakili Jumlah Gambar Dalam
Data Pelatihan, 28 Mewakili Ukuran Gambar Dan 1 Mewakili Jumlah Saluran. Jumlah
Saluran Diatur Ke 1 Jika Gambar Dalam Skala Abu-Abu Dan Jika Gambar Dalam
Format RGB, Jumlah Saluran Diatur Ke 3. Kami Juga Mengubah Nilai Target Kami
Menjadi Matriks Kelas Biner. Untuk Mengetahui Seperti Apa Matriks Kelas Biner
Lihat Contoh Di Bawah Ini.
Kami Membangun
Model Sekuensial Dan Menambahkan Lapisan Konvolusi Dan Lapisan Penyatuan
Maksimal Ke Dalamnya. Kami Juga Menambahkan Lapisan Putus Sekolah Di Antaranya,
Putus Sekolah Secara Acak Mematikan Beberapa Neuron Di Jaringan Yang Memaksa
Data Untuk Menemukan Jalur Baru. Oleh Karena Itu, Ini Mengurangi Overfitting. Kami
Menambahkan Lapisan Padat Di Akhir Yang Digunakan Untuk Prediksi Kelas (0–9).
Kami Sekarang
Mengkompilasi Model Dengan Fungsi Kehilangan Entropi Lintas Kategoris,
Pengoptimal Adadelta, Dan Metrik Akurasi. Kami Kemudian Menyesuaikan Dataset Ke
Model, Yaitu Kami Melatih Model Selama 12 Epoch. Setelah Melatih Model, Kami
Mengevaluasi Kehilangan Dan Keakuratan Model Pada Data Uji Dan Mencetaknya.
Keluaran
Kesimpulan
Convolution Neural Networks Memang Memiliki Beberapa Kekurangan Yang Ditunjukkan Oleh Geoffrey Hinton. Dia Mengemukakan Bahwa Jaringan Kapsulnya Adalah Cara Yang Harus Ditempuh Jika Kita Ingin Mencapai Akurasi Tingkat Manusia Dalam Domain Visi Komputer. Tapi, Sampai Sekarang, CNN Tampaknya Berjalan Dengan Sangat Baik. Tolong Beri Tahu Saya Jika Anda Menemukan Artikel Ini Bermanfaat, Terima Kasih :)
up
BalasHapus