Recursos: Big Data

big-data-5654138-1401610-jpg

Blogs / Tutoriales
big-data-7571612

Introducción a Hadoop

Hadoop es un ecosistema completo de proyectos de código abierto que proporciona un marco para lidiar con Big Data. Aquí hay una explicación simple de Hadoop usando ejemplos interesantes.

Introducción a MapReduce

Después de la serie de introducción, aquí hay una explicación simple de MapReduce, un modelo de programación utilizado para procesar grandes conjuntos de datos.

Hadoop más allá de MapReduce tradicional: simplificado

Después de adquirir conocimientos básicos de Hadoop y MapReduce, es hora de pasar a conceptos avanzados. Este artículo cubre temas como el sistema extendido hadoop, apache pig, hive, impala, sqoop, flume, hive y otros conceptos relacionados.

Engañar a su elefante para que haga manipulaciones de datos (usando MapReduce)

Este artículo destaca las aplicaciones de MapReduce con HDFS utilizando varios consejos y trucos útiles para realizar cálculos de big data más rápidamente.

Guía completa para principiantes de MongoDB

Aquí hay una guía completa para principiantes para aprender MongoDB. La intención principal de este artículo es explicar el proceso de trabajo de MongoDB y sus componentes relacionados de la manera más simple posible.

Obtener Mongo-ed en el administrador NoSQL, R & Python

Una vez que haya leído sobre los conceptos básicos de MongoDB, este debería ser su paso inmediato para aprender sobre el uso de MongoDB en R, Python y NoSQL. Su capacidad para integrarse sin esfuerzo con tecnologías de terceros convierte a MongoDB en una de las mejores opciones en la industria de Big Data.

Aprenda computación en la nube en R

Este artículo explica el concepto de computación en la nube en R Programming y R studio utilizando una metodología paso a paso. Además, también aprenderá sobre los beneficios de usar R en la nube en comparación con el escritorio tradicional o la arquitectura de cliente / servidor local.

Impresionante Big Data – Repositorio de GitHub

Aquí hay un repositorio de github con todos los recursos necesarios para dominar las tecnologías de big data. Parece ser una guía de recursos exhaustiva para big data, sin embargo, se asegura de no perderse en esta abundante lista de recursos y de mantenerse concentrado en lo que desea aprender.

Ruta de aprendizaje SparkR

Aquí hay un recurso para comenzar a aprender sparkR, una biblioteca de R para aprovechar la tecnología Apache Spark.

Introducción integral a Apache Spark

Aquí hay un artículo completo que abarca desde lo básico de la computación distribuida hasta aprender a utilizar la tecnología Apache Spark para obtener ganancias masivas en términos de velocidad y escalabilidad.

Lo mejor de los videos de YouTube

Aprenda Big Data Analytics utilizando los mejores videos de YouTube, TED Talks y otros recursos

Capacitaciones y certificaciones:

  • Universidad de Big Data: Big Data University es un sitio de educación en línea basado en la nube que ofrece cursos gratuitos y de pago impartidos por un grupo de profesionales y educadores que tienen una amplia experiencia con Hadoop, Big Data y DB2. Su objetivo es hacer que la educación en Big Data esté disponible gratuitamente para todos, de modo que pueda conducir a conocimientos y descubrimientos en campos variados, como la atención médica y el medio ambiente. La mayoría de los cursos incluyen clases de laboratorio que puede realizar en la nube, en imágenes de VMWare o instalando localmente el software requerido. De forma totalmente gratuita, los alumnos obtienen un certificado al aprobar el examen final.
  • Cloudera: Cloudera proporciona una certificación mundialmente reconocida para Big Data. Cloudera certifica a verdaderos especialistas que han demostrado sus habilidades para ejecutar al más alto nivel tanto en exámenes tradicionales como en desafíos prácticos con conjuntos de datos en vivo.
  • Coursera: ¿Necesita comprender el big data y cómo afectará a su negocio? Esta especialización es para ti. Obtendrá una comprensión de los conocimientos que pueden proporcionar los macrodatos a través de la experiencia práctica con las herramientas y sistemas que utilizan los científicos e ingenieros de macrodatos. ¡No se requiere experiencia previa en programación! Se le guiará a través de los conceptos básicos del uso de Hadoop con MapReduce, Spark, Pig y Hive. Al seguir el código proporcionado, experimentará cómo se puede realizar un modelado predictivo y aprovechar el análisis de gráficos para modelar problemas. Esta especialización lo preparará para hacer las preguntas correctas sobre los datos, comunicarse de manera efectiva con los científicos de datos y realizar una exploración básica de conjuntos de datos grandes y complejos.