Hadoop è un progetto software open source che permette di analizzare enormi quantità di dati distribuiti su cluster di computer e file system differenti. È progettato per essere completamente scalabile da un singolo server fino a migliaia di macchine. Hadoop si occupa anche di gestire problemi e guasti a livello applicativo piuttosto che hardware e questo garantisce migliori e più accurate prestazioni. Hadoop è mantenuto da The Apache Software Foundation e si basa sul linguaggio di programmazione Java. Questo libro è dedicato a chi non conosce Hadoop ma ha la necessità di lavorare e gestire Big Data. L'approccio è sia teorico che pragmatico e tutoriale. Si parte dall'installazione e dalla configurazione di Hadoop, per passare alla progettazione, l'implementazione e la gestione di sistemi complessi attraverso le varie componenti del software tra cui HDFS, YARN e MapReduce. Passo dopo passo il lettore scoprirà i componenti di Hadoop imparando a utilizzarli nella costruzione di soluzioni in grado di ottenere il massimo dai dati collezionati.
Big Data con Hadoop
Titolo | Big Data con Hadoop |
Autori | Garry Turkington, Gabriele Modena |
Traduttore | C. Castellazzi |
Collana | Guida completa |
Editore | Apogeo |
Formato |
![]() |
Pagine | 311 |
Pubblicazione | 05/2015 |
ISBN | 9788850333431 |