struktur program java
Hadoop, seperti yang kita semua tahu adalah pembuat data besar. Sebagai kerangka kerja perangkat lunak yang mampu memproses proporsi data yang sangat besar, Hadoop telah berhasil mencapai puncak daftar kata kunci CIO.
Namun, peningkatan tumpukan dalam memori yang belum pernah terjadi sebelumnya telah memperkenalkan ekosistem data besar ke alternatif baru untuk analitik. Cara analisis MapReduce digantikan oleh pendekatan baru yang memungkinkan analisis baik di dalam kerangka Hadoop maupun di luarnya. Apache Spark adalah wajah baru analitik data besar.
Penggemar data besar telah menyertifikasi Apache Spark sebagai mesin penghitung data terpanas untuk data besar di dunia. Itu cepat mengeluarkan MapReduce dan Java dari posisi mereka, dan tren pekerjaan mencerminkan perubahan ini. Menurut survei oleh TypeSafe, 71% pengembang Java global saat ini mengevaluasi atau meneliti seputar Spark, dan 35% di antaranya sudah mulai menggunakannya. Pakar Spark saat ini diminati, dan dalam minggu-minggu berikutnya, jumlah peluang kerja terkait Spark hanya diharapkan akan terus meningkat.
Jadi, ada apa dengan Apache Spark yang membuatnya muncul di atas setiap daftar tugas CIO?
Berikut beberapa fitur menarik dari Apache Spark:
- Integrasi Hadoop - Spark dapat bekerja dengan file yang disimpan di HDFS.
- Shell Interaktif Spark - Spark ditulis dalam Scala, dan memiliki versi penerjemah Scala sendiri.
- Suite Analitik Spark - Spark hadir dengan alat untuk analisis kueri interaktif, pemrosesan dan analisis grafik skala besar, serta analisis waktu nyata.
- Set Data Terdistribusi Tangguh (RDD) - RDD adalah objek terdistribusi yang dapat disimpan dalam cache dalam memori, di seluruh cluster node komputasi. Mereka adalah objek data utama yang digunakan di Spark.
- Operator Terdistribusi - Selain MapReduce, ada banyak operator lain yang dapat digunakan di RDD.
Organisasi seperti NASA, Yahoo, dan Adobe telah berkomitmen untuk Spark. Inilah yang dikatakan oleh John Tripier, Aliansi dan Pimpinan Ekosistem di Databricks, “Penerapan Apache Spark oleh bisnis besar dan kecil tumbuh dengan kecepatan yang luar biasa di berbagai industri, dan permintaan untuk pengembang dengan keahlian bersertifikat dengan cepat mengikuti setelan ”. Tidak pernah ada waktu yang lebih baik untuk Mempelajari Spark jika Anda memiliki latar belakang Hadoop.
Edureka telah secara khusus mengatur kursus tentang Apache Spark & Scala, yang dibuat bersama oleh praktisi industri kehidupan nyata. Untuk pengalaman e-learning langsung yang berbeda bersama dengan proyek yang relevan dengan industri, lihat kursus kami. Batch baru akan segera dimulai, jadi lihat kursusnya di sini: .
Ada pertanyaan untuk kami? Harap sebutkan di bagian komentar dan kami akan menghubungi Anda kembali.
Posting terkait: