Sedikit Info Seputar
Mengapa Google Cloud Dataflow tidak membunuh Hadoop
Terbaru 2017
- Hay gaes kali ini team Sniffing Blog, kali ini akan membahas artikel dengan judul Mengapa Google Cloud Dataflow tidak membunuh Hadoop, kami selaku Team Sniffing Blog telah mempersiapkan artikel ini untuk sobat sobat yang menyukai Sniffing Blog. semoga isi postingan tentang
Artikel informasi, yang saya posting kali ini dapat dipahami dengan mudah serta memberi manfa'at bagi kalian semua, walaupun tidak sempurna setidaknya artikel kami memberi sedikit informasi kepada kalian semua. ok langsung simak aja sob
Judul:
Berbagi Info Seputar
Mengapa Google Cloud Dataflow tidak membunuh Hadoop
Terbaru
link: Mengapa Google Cloud Dataflow tidak membunuh Hadoop
Berbagi Artikel Tentang Mengapa Google Cloud Dataflow tidak membunuh Hadoop Terbaru dan Terlengkap 2017
Google menagih layanan sebagai "langkah terbaru dalam upaya kami untuk membuat data dan analisis diakses oleh semua orang," dengan penekanan pada aplikasi yang sedang menulis daripada data yang Anda memanipulasi.
Paling menonjol, Cloud Dataflow disebut-sebut sebagai unggul MapReduce dalam jumlah data yang dapat diproses secara efisien. Hölzle mengklaim kinerja yang buruk MapReduce dimulai setelah jumlah data mencapai kisaran multipetabyte. Untuk perspektif, mengklaim Facebook pada tahun 2012 itu memiliki 100-petabyte Hadoop klaster, meskipun perusahaan tidak masuk ke detail tentang berapa banyak modifikasi kustom yang digunakan atau bahkan jika MapReduce itu sendiri masih beroperasi.
Hadoop sendiri tampaknya miring jauh dari MapReduce mendukung lebih maju (jika menuntut) algoritma pengolahan, seperti Apache Spark. "Banyak masalah tidak meminjamkan diri ke proses dua langkah dari peta dan mengurangi," jelas InfoWorld Andy Oliver, "dan bagi mereka yang melakukannya, Spark dapat melakukan peta dan mengurangi jauh lebih cepat daripada Hadoop bisa."
Perbedaan terbesar antara tunggal Hadoop dan Google Cloud Dataflow, meskipun, terletak pada di mana dan bagaimana setiap kemungkinan besar akan dikerahkan. Data cenderung diproses di mana ia duduk, dan untuk alasan itu Hadoop telah menjadi menyimpan data sebanyak sistem pengolahan data. Mereka eying Google Cloud Dataflow tidak mungkin untuk bermigrasi petabyte data ke dalamnya dari instalasi Hadoop yang ada. Ini lebih mungkin Cloud Dataflow akan digunakan untuk meningkatkan aplikasi yang sudah ditulis untuk Google Cloud, yang mana data yang sudah berada dalam sistem Google atau sedang dikumpulkan di sana. Itu bukan di mana sebagian besar proyek Hadoop, sekarang atau di masa depan, yang akan berakhir.
"Saya tidak melihat ini sebagai sebuah drama migrasi," kata Baer.