Il progetto Apache Hadoop® sviluppa software open source per il calcolo distribuito, scalabile e affidabile. Scopri i principi fondamentali dietro di esso e come puoi usare il suo potere per dare un senso ai tuoi Big Data.
Perché seguire questo corso??
- Come Hadoop si inserisce nel mondo (riconoscere i problemi che risolve)
- Comprendere i concetti di HDFSHDFS, o File system distribuito Hadoop, Si tratta di un'infrastruttura chiave per l'archiviazione di grandi volumi di dati. Progettato per funzionare su hardware comune, HDFS consente la distribuzione dei dati su più nodi, garantire un'elevata disponibilità e tolleranza ai guasti. La sua architettura si basa su un modello master-slave, dove un nodo master gestisce il sistema e i nodi slave memorizzano i dati, facilitare l'elaborazione efficiente delle informazioni.. e Riduci mappaMapReduce è un modello di programmazione progettato per elaborare e generare in modo efficiente set di dati di grandi dimensioni. Sviluppato da Google, Questo approccio suddivide il lavoro in attività più piccole, che sono distribuiti tra più nodi in un cluster. Ogni nodo elabora la sua parte e poi i risultati vengono combinati. Questo metodo consente di scalare le applicazioni e gestire enormi volumi di informazioni, essere fondamentali nel mondo dei Big Data.... (scopri come risolvi i problemi)
- Scrivi programmi MapReduce (guarda come risolviamo i problemi)
- Esercitati a risolvere i problemi da solo
Contenuti del corso
- Che cos'è “Grandi dati”? Le dimensioni dei Big Data. Problemi di scala. HDFS e l'ecosistema Hadoop.
- Le basi di HDFS, MapReduce y grappoloUn cluster è un insieme di aziende e organizzazioni interconnesse che operano nello stesso settore o area geografica, e che collaborano per migliorare la loro competitività. Questi raggruppamenti consentono la condivisione delle risorse, Conoscenze e tecnologie, promuovere l'innovazione e la crescita economica. I cluster possono coprire una varietà di settori, Dalla tecnologia all'agricoltura, e sono fondamentali per lo sviluppo regionale e la creazione di posti di lavoro.... l'Hadoop.
- Scrivi programmi MapReduce per rispondere a domande sui dati.
- MappaRiduci i modelli di progettazione.
Progetti
- Usa MapReduce per rivelare tendenze sorprendenti nei dati del forum Udacity.
Durata:
1 mio
assume 6 ore / settimana (lavora al tuo ritmo)
Valutare: – 11.940 INR / mio (supponendo $ = 60 INR)
Metà tempo, tempo pieno:
Part time