El proyecto Apache Hadoop® desarrolla software open source para una computación distribuida, escalable y confiable. Conozca los principios fundamentales detrás de él y cómo puede utilizar su poder para darle sentido a su Big Data.
¿Por qué realizar este curso?
- Cómo encaja Hadoop en el mundo (reconozca los problemas que resuelve)
- Comprenda los conceptos de HDFSHDFS, o Sistema de Archivos Distribuido de Hadoop, es una infraestructura clave para el almacenamiento de grandes volúmenes de datos. Diseñado para ejecutarse en hardware común, HDFS permite la distribución de datos en múltiples nodos, garantizando alta disponibilidad y tolerancia a fallos. Su arquitectura se basa en un modelo maestro-esclavo, donde un nodo maestro gestiona el sistema y los nodos esclavos almacenan los datos, facilitando el procesamiento eficiente de información... y MapReduceMapReduce es un modelo de programación diseñado para procesar y generar grandes conjuntos de datos de manera eficiente. Desarrollado por Google, este enfoque Divide el trabajo en tareas más pequeñas, las cuales se distribuyen entre múltiples nodos en un clúster. Cada nodo procesa su parte y luego se combinan los resultados. Este método permite escalar aplicaciones y manejar volúmenes masivos de información, siendo fundamental en el mundo del Big Data.... (descubra cómo resuelve los problemas)
- Escribir programas MapReduce (ver cómo resolvemos los problemas)
- Practica solucionar problemas por tu cuenta
Contenidos del curso
- ¿Qué es «Big Data»? Las dimensiones del Big Data. Problemas de escala. HDFS y el ecosistema de Hadoop.
- Los conceptos básicos de HDFS, MapReduce y clústerUn clúster es un conjunto de empresas y organizaciones interconectadas que operan en un mismo sector o área geográfica, y que colaboran para mejorar su competitividad. Estos agrupamientos permiten compartir recursos, conocimientos y tecnologías, fomentando la innovación y el crecimiento económico. Los clústeres pueden abarcar diversas industrias, desde tecnología hasta agricultura, y son fundamentales para el desarrollo regional y la creación de empleo.... de Hadoop.
- Escribir programas MapReduce para responder preguntas sobre datos.
- Patrones de diseño MapReduce.
Proyectos
- Utilice MapReduce para revelar tendencias sorprendentes en los datos del foro de Udacity.
Duración:
1 mes
Asume 6 horas / semana (trabaje a su propio ritmo)
Tarifa: – 11.940 INR / mes (asumiendo $ = 60 INR)
Medio tiempo, tiempo completo:
Tiempo parcial