Apache Hadoop
![]() | Artikel ini perlu dikembangkan dari artikel terkait di Wikipedia bahasa Inggris. (Februari 2025)
klik [tampil] untuk melihat petunjuk sebelum menerjemahkan.
|
Apache Hadoop adalah kerangka framework perangkat lunak open-source yang dirancang untuk memanfaatkan jaringan komputer berbasis komoditas dalam menangani permasalahan yang melibatkan jumlah data dan komputasi dalam skala besar. Terinspirasi oleh konsep MapReduce dan Google File System (GFS) dari Google, Hadoop menyediakan kerangka kerja perangkat lunak untuk penyimpanan dan pemrosesan data terdistribusi menggunakan model pemrograman MapReduce.[1]
Seperti pendekatan yang digunakan di Google, Hadoop dirancang untuk berjalan pada klaster komputer dengan perangkat keras standar (commodity hardware), meskipun juga dapat digunakan pada klaster berperforma tinggi. Setiap modul dalam Hadoop dikembangkan dengan asumsi dasar bahwa kegagalan perangkat keras adalah kejadian yang umum terjadi dan harus dapat ditangani secara otomatis oleh framework ini.
- ^ Sakr, Sherif; Zomaya, Albert Y., ed. (2019). Encyclopedia of Big Data Technologies (dalam bahasa Inggris). Cham: Springer International Publishing. doi:10.1007/978-3-319-77525-8. ISBN 978-3-319-77524-1.