Il progetto Apache Hadoop® sviluppa software open source per il calcolo distribuito, scalabile e affidabile. Scopri i principi fondamentali dietro di esso e come puoi usare il suo potere per dare un senso ai tuoi Big Data.
Perché seguire questo corso??
- Come Hadoop si inserisce nel mondo (riconoscere i problemi che risolve)
- Comprendere i concetti di HDFSHDFS, o File system distribuito Hadoop, Si tratta di un'infrastruttura chiave per l'archiviazione di grandi volumi di dati. Progettato per funzionare su hardware comune, HDFS consente la distribuzione dei dati su più nodi, garantire un'elevata disponibilità e tolleranza ai guasti. La sua architettura si basa su un modello master-slave, dove un nodo master gestisce il sistema e i nodi slave memorizzano i dati, facilitare l'elaborazione efficiente delle informazioni.. e Riduci mappaMapReduce es un modelo de programación diseñado para procesar y generar grandes conjuntos de datos de manera eficiente. Desarrollado por Google, este enfoque Divide el trabajo en tareas más pequeñas, las cuales se distribuyen entre múltiples nodos en un clúster. Cada nodo procesa su parte y luego se combinan los resultados. Este método permite escalar aplicaciones y manejar volúmenes masivos de información, siendo fundamental en el mundo del Big Data.... (scopri come risolvi i problemi)
- Scrivi programmi MapReduce (guarda come risolviamo i problemi)
- Esercitati a risolvere i problemi da solo
Contenuti del corso
- Che cos'è “Grandi dati”? Le dimensioni dei Big Data. Problemi di scala. HDFS e l'ecosistema Hadoop.
- Le basi di HDFS, MapReduce y grappoloUn cluster è un insieme di aziende e organizzazioni interconnesse che operano nello stesso settore o area geografica, e che collaborano per migliorare la loro competitività. Questi raggruppamenti consentono la condivisione delle risorse, Conoscenze e tecnologie, promuovere l'innovazione e la crescita economica. I cluster possono coprire una varietà di settori, Dalla tecnologia all'agricoltura, e sono fondamentali per lo sviluppo regionale e la creazione di posti di lavoro.... l'Hadoop.
- Scrivi programmi MapReduce per rispondere a domande sui dati.
- MappaRiduci i modelli di progettazione.
Progetti
- Usa MapReduce per rivelare tendenze sorprendenti nei dati del forum Udacity.
Durata:
1 mio
assume 6 ore / settimana (lavora al tuo ritmo)
Valutare: – 11.940 INR / mio (supponendo $ = 60 INR)
Metà tempo, tempo pieno:
Part time