Apa Itu Jaringan Neural? Pengantar Jaringan Syaraf Tiruan



Blog tentang Jaringan Saraf Tiruan ini akan memperkenalkan Anda pada konsep dasar Jaringan Saraf dan bagaimana mereka dapat memecahkan masalah kompleks berbasis data.

Dengan kemajuan dalam Pembelajaran Mesin, telah mengambil jalan yang tinggi. Pembelajaran Dalam dianggap sebagai teknologi paling canggih yang dibangun untuk memecahkan masalah kompleks yang menggunakan kumpulan data besar. Blog tentang Jaringan Saraf Tiruan ini akan memperkenalkan Anda pada konsep dasar Jaringan Saraf dan bagaimana mereka dapat memecahkan masalah kompleks berbasis data.

Untuk mendapatkan pengetahuan mendalam tentang Kecerdasan Buatan dan Pembelajaran Mendalam, Anda dapat mendaftar untuk siaran langsung oleh Edureka dengan dukungan 24/7 dan akses seumur hidup.





Berikut daftar topik yang akan dibahas dalam hal ini Blog:

  1. Apa itu Jaringan Neural?
  2. Apa itu Pembelajaran Mendalam?
  3. Perbedaan Antara AI, ML dan, DL
  4. Perlu Pembelajaran Mendalam
  5. Kasus Penggunaan Pembelajaran Mendalam
  6. Bagaimana Neural Networks bekerja?
  7. Jaringan Neural Dijelaskan Dengan Contoh

Definisi Sederhana Jaringan Neural

Dimodelkan sesuai dengan otak manusia, a Neural Network dibangun untuk meniru fungsi otak manusia . Otak manusia adalah jaringan saraf yang terdiri dari banyak neuron, demikian pula Jaringan Saraf Tiruan (JST) terdiri dari beberapa perceptron (dijelaskan nanti).



Jaringan Saraf - Apa Itu Jaringan Saraf - Edureka

Jaringan saraf terdiri dari tiga lapisan penting:

  • Lapisan Input: Seperti namanya, layer ini menerima semua input yang diberikan oleh programmer.
  • Lapisan Tersembunyi: Antara lapisan masukan dan keluaran adalah satu set lapisan yang dikenal sebagai lapisan Tersembunyi. Pada lapisan ini, perhitungan dilakukan yang menghasilkan keluaran.
  • Lapisan Keluaran: Masukan melalui serangkaian transformasi melalui lapisan tersembunyi yang akhirnya menghasilkan keluaran yang dikirimkan melalui ini lapisan.

Sebelum kita membahas lebih dalam tentang bagaimana Jaringan Neural berfungsi, mari kita pahami apa itu Pembelajaran Dalam.



Apa Itu Pembelajaran Mendalam?

Pembelajaran Mendalam adalah bidang Pembelajaran Mesin lanjutan yang menggunakan konsep Jaringan Neural untuk menyelesaikan kasus penggunaan komputasi tinggi yang melibatkan analisis data multi-dimensi. Ini mengotomatiskan proses ekstraksi fitur, memastikan bahwa intervensi manusia yang sangat minimal diperlukan.

Lalu apa sebenarnya Deep Learning itu?

Pembelajaran Mendalam adalah lanjutan sub bidang Machine Learning yang menggunakan algoritma yang terinspirasi dari struktur dan fungsi otak yang disebut Artificial Neural Networks.

Perbedaan Antara AI, ML, dan DL (Artificial Intelligence vs Machine Learning vs Deep Learning)

Orang sering cenderung berpikir seperti itu , , dan Pembelajaran Mendalam sama karena mereka memiliki aplikasi yang sama. Misalnya Siri adalah aplikasi AI, Machine learning dan Deep learning.

Jadi, bagaimana teknologi ini terkait?

  • Kecerdasan buatan adalah ilmu mendapatkan mesin untuk meniru perilaku manusia.
  • Pembelajaran mesin adalah bagian dari Artificial Intelligence (AI) yang berfokus pada membuat mesin membuat keputusan dengan memberi mereka data.
  • Pembelajaran mendalam adalah bagian dari Machine Learning yang menggunakan konsep jaringan saraf untuk memecahkan masalah kompleks.

Singkatnya, AI, Machine Learning, dan Deep Learning adalah bidang yang saling berhubungan. Pembelajaran Mesin dan Pembelajaran Mendalam membantu Kecerdasan Buatan dengan menyediakan sekumpulan algoritme dan jaringan saraf untuk dipecahkan masalah berbasis data.

Sekarang setelah Anda memahami dasar-dasarnya, mari kita pahami apa yang menyebabkan perlunya Deep Learning.

Need For Deep Learning: Batasan Algoritma dan Teknik Machine Learning Tradisional

Pembelajaran Mesin adalah terobosan besar dalam dunia teknis, ini mengarah pada otomatisasi tugas-tugas yang monoton dan memakan waktu, membantu dalam memecahkan masalah yang kompleks dan membuat keputusan yang lebih cerdas. Namun, ada beberapa kekurangan dalam Machine learning yang menyebabkan munculnya Deep Learning.

Berikut beberapa batasan Machine Learning:

  1. Tidak dapat memproses data dimensi tinggi: Machine Learning hanya dapat memproses data dalam dimensi kecil yang berisi sekumpulan kecil variabel. Jika Anda ingin menganalisis data yang berisi 100 variabel, maka Machine Learning tidak dapat digunakan.
  2. Rekayasa fitur bersifat manual: Pertimbangkan kasus penggunaan di mana Anda memiliki 100 variabel prediktor dan Anda hanya perlu mempersempit variabel yang signifikan. Untuk melakukan ini, Anda harus mempelajari hubungan antara masing-masing variabel secara manual dan mencari tahu mana yang penting dalam memprediksi keluaran. Tugas ini sangat melelahkan dan memakan waktu bagi pengembang.
  3. Tidak ideal untuk melakukan deteksi objek dan pemrosesan gambar: Karena deteksi objek memerlukan data berdimensi tinggi, Machine Learning tidak dapat digunakan untuk memproses kumpulan data gambar, ini hanya ideal untuk kumpulan data dengan jumlah fitur yang terbatas.

Sebelum kita masuk lebih dalam Neural Networks, mari kita pertimbangkan kasus penggunaan dunia nyata tempat Deep Learning diterapkan.

Gaji Java Developer di India

Kasus Penggunaan / Aplikasi Pembelajaran Mendalam

Tahukah Anda bahwa PayPal memproses pembayaran lebih dari $ 235 miliar dari empat miliar transaksi oleh lebih dari 170 juta pelanggannya? Ini menggunakan sejumlah besar data untuk mengidentifikasi kemungkinan kegiatan penipuan di antara alasan lainnya.

Dengan bantuan algoritme Pembelajaran Mendalam, PayPal menambang data dari riwayat pembelian pelanggan mereka selain meninjau pola kemungkinan penipuan yang disimpan dalam basis datanya untuk memprediksi apakah transaksi tertentu itu curang atau tidak.

Perusahaan telah mengandalkan teknologi Deep Learning & Machine Learning selama sekitar 10 tahun. Awalnya, tim pemantau penipuan menggunakan model linier yang sederhana. Namun selama bertahun-tahun perusahaan beralih ke teknologi Machine Learning yang lebih canggih yang disebut, Deep Learning.

Manajer risiko penipuan dan Ilmuwan Data di PayPal, Ke Wang, mengutip:

“Apa yang kami nikmati dari pembelajaran mesin yang lebih modern dan canggih adalah kemampuannya untuk mengonsumsi lebih banyak data, menangani lapisan dan lapisan abstraksi, serta dapat 'melihat' hal-hal yang tidak dapat dilihat oleh teknologi yang lebih sederhana, bahkan manusia pun mungkin tidak bisa melihat. '

Model linier sederhana mampu mengonsumsi sekitar 20 variabel. Namun, dengan teknologi Deep Learning seseorang dapat menjalankan ribuan titik data. Oleh karena itu, dengan mengimplementasikan Teknologi Pembelajaran Mendalam, PayPal akhirnya dapat menganalisis jutaan transaksi untuk mengidentifikasi penipuan apa pun aktivitas.

Sekarang mari kita masuk ke dalam Neural Network dan memahami cara kerjanya.

Bagaimana Jaringan Neural Bekerja?

Untuk memahami jaringan saraf, kita perlu memecahnya dan memahami unit paling dasar dari Jaringan Syaraf, yaitu Perceptron.

sqoop impor dari oracle ke hdfs

Apa Itu Perceptron?

Perceptron adalah jaringan saraf lapisan tunggal yang digunakan untuk mengklasifikasikan data linier. Ini memiliki 4 komponen penting:

  1. Masukan
  2. Bobot dan Bias
  3. Fungsi Penjumlahan
  4. Fungsi Aktivasi atau Transformasi

Logika dasar di balik Perceptron adalah sebagai berikut:

Masukan (x) yang diterima dari lapisan masukan dikalikan dengan bobot yang ditetapkan w. Nilai yang dikalikan kemudian ditambahkan untuk membentuk Jumlah Tertimbang. Jumlah bobot masukan dan bobotnya masing-masing kemudian diterapkan ke Fungsi Aktivasi yang relevan. Fungsi aktivasi memetakan input ke output masing-masing.

Bobot dan Bias Dalam Pembelajaran Mendalam

Mengapa kita harus menetapkan bobot untuk setiap masukan?

Setelah variabel masukan diumpankan ke jaringan, nilai yang dipilih secara acak ditetapkan sebagai bobot masukan tersebut. Bobot setiap titik data masukan menunjukkan betapa pentingnya masukan tersebut dalam memprediksi hasil.

Parameter bias, di sisi lain, memungkinkan Anda untuk menyesuaikan kurva fungsi aktivasi sedemikian rupa sehingga keluaran yang tepat dapat dicapai.

Fungsi Penjumlahan

Setelah masukan diberi bobot, produk dari masukan dan bobot masing-masing diambil. Menambahkan semua produk ini memberi kita Jumlah Tertimbang. Ini dilakukan dengan fungsi penjumlahan.

Fungsi Aktivasi

Tujuan utama dari fungsi aktivasi adalah memetakan jumlah bobot ke keluaran. Fungsi aktivasi seperti tanh, ULT, sigmoid dan lain sebagainya merupakan contoh dari fungsi transformasi.

Untuk mempelajari lebih lanjut tentang fungsi Perceptrons, Anda dapat melalui ini Blog.

Sebelum kita tutup blog ini, mari kita ambil contoh sederhana untuk memahami cara kerja Jaringan Neural.

Neural Networks Dijelaskan Dengan Contoh

Pertimbangkan skenario di mana Anda akan membangun Jaringan Neural Buatan (JST) yang mengklasifikasikan gambar menjadi dua kelas:

  • Kelas A: Berisi gambar daun yang tidak sakit
  • Kelas B: Berisi gambar daun yang sakit

Jadi bagaimana Anda membuat jaringan Syaraf yang mengklasifikasikan daun menjadi tanaman yang sakit dan tidak sakit?

Proses selalu dimulai dengan memproses dan mengubah input sedemikian rupa sehingga dapat dengan mudah diproses. Dalam kasus kami, setiap gambar daun akan dipecah menjadi piksel tergantung pada dimensi gambar.

Misalnya, jika gambar terdiri dari 30 x 30 piksel, maka jumlah total piksel akan menjadi 900. Piksel ini direpresentasikan sebagai matriks, yang kemudian dimasukkan ke dalam lapisan masukan Jaringan Neural.

Sama seperti otak kita memiliki neuron yang membantu membangun dan menghubungkan pikiran, JST memiliki perceptron yang menerima masukan dan memprosesnya dengan meneruskannya dari lapisan masukan ke lapisan tersembunyi dan terakhir lapisan keluaran.

Saat masukan diteruskan dari lapisan masukan ke lapisan tersembunyi, bobot acak awal ditetapkan ke setiap masukan. Masukan tersebut kemudian dikalikan dengan bobotnya yang sesuai dan jumlahnya dikirim sebagai masukan ke lapisan tersembunyi berikutnya.

Di sini, nilai numerik yang disebut bias ditetapkan ke setiap perceptron, yang dikaitkan dengan bobot setiap input. Selanjutnya, setiap perceptron dilewatkan melalui aktivasi atau fungsi transformasi yang menentukan apakah perceptron tertentu akan diaktifkan atau tidak.

Perceptron yang diaktifkan digunakan untuk mengirimkan data ke lapisan berikutnya. Dengan cara ini, data disebarkan (Propagasi maju) melalui jaringan saraf sampai perceptrons mencapai lapisan keluaran.

Pada lapisan keluaran, probabilitas diturunkan yang menentukan apakah data milik kelas A atau kelas B.

Kedengarannya sederhana, bukan? Nah, konsep di balik Jaringan Saraf murni didasarkan pada fungsi otak manusia. Anda membutuhkan pengetahuan mendalam tentang berbagai konsep dan algoritma matematika. Berikut daftar blog untuk Anda mulai:

  1. Apa itu Pembelajaran Mendalam? Memulai Pembelajaran Mendalam
  2. Pembelajaran Mendalam dengan Python: Panduan Pemula untuk Pembelajaran Mendalam

Jika Anda merasa blog ini relevan, lihat oleh Edureka, perusahaan pembelajaran online tepercaya dengan jaringan lebih dari 250.000 pelajar yang puas dan tersebar di seluruh dunia. Kursus Edureka Deep Learning dengan Pelatihan Sertifikasi TensorFlow membantu peserta didik menjadi ahli dalam pelatihan dan mengoptimalkan jaringan saraf dasar dan konvolusional menggunakan proyek dan tugas real-time bersama dengan konsep seperti fungsi SoftMax, Jaringan Neural encoder Otomatis, Mesin Boltzmann Terbatas (RBM).