Moyens: Big Data

Contenu

Blogues / Tutoriels
big data-7571612

Introduction à Hadoop

Hadoop est un écosystème complet de projets open source qui fournit un cadre pour traiter le Big Data. Voici une explication simple de Hadoop à l'aide d'exemples intéressants.

Introduction à MapReduce

Après la série d'introduction, voici une explication simple de MapReduce, un modèle de programmation utilisé pour traiter de grands ensembles de données.

Hadoop au-delà de MapReduce traditionnel: simplifié

Après avoir acquis des connaissances de base sur Hadoop et MapReduce, il est temps de passer aux concepts avancés. Cet article couvre des sujets tels que le système étendu Hadoop, cochon apache, ruche, impala, seau, buse, ruche et autres concepts connexes.

Incitez votre éléphant à faire des manipulations de données (en utilisant MapReduce)

Cet article met en évidence les applications MapReduce avec HDFS en utilisant plusieurs trucs et astuces utiles pour effectuer des calculs de Big Data plus rapidement..

Guide complet du débutant sur MongoDB

Voici un guide complet du débutant pour apprendre MongoDB. L'intention principale de cet article est d'expliquer le processus de travail de MongoDB et de ses composants associés de la manière la plus simple possible..

Obtenez Mongo-ed dans le gestionnaire NoSQL, R & Python

Une fois que vous avez lu les bases de MongoDB, cela devrait être votre étape immédiate pour apprendre à utiliser MongoDB dans R, Python et NoSQL. Sa capacité à s'intégrer sans effort avec des technologies tierces fait de MongoDB l'une des meilleures options de l'industrie du Big Data..

Apprendre le Cloud Computing en R

Cet article explique le concept de cloud computing dans R Programming et R studio en utilisant une méthodologie étape par étape. En outre, vous découvrirez également les avantages de l'utilisation de R dans le cloud par rapport à l'architecture traditionnelle de bureau ou de client / serveur local.

Impressionnante Big Data – Dépôt GitHub

Voici un référentiel github avec toutes les ressources nécessaires pour maîtriser les technologies big data. Semble être un guide de ressources complet pour les mégadonnées, cependant, s'assure que vous ne vous perdez pas dans cette riche liste de ressources et que vous restez concentré sur ce que vous voulez apprendre.

Parcours d'apprentissage SparkR

Voici une ressource pour commencer à apprendre sparkR, une bibliothèque R pour profiter de la technologie Apache Spark.

Introduction complète à Apache Spark

Voici un article complet couvrant tout, des bases de l'informatique distribuée à l'apprentissage de l'utilisation de la technologie Apache Spark pour des gains considérables en termes de vitesse et d'évolutivité..

Le meilleur des vidéos YouTube

Apprenez Big Data Analytics en utilisant les meilleures vidéos YouTube, Conférences TED et autres ressources

Formations et certifications:

  • Université Big Data: Big Data University est un site de formation en ligne basé sur le cloud qui propose des cours gratuits et payants dispensés par un groupe de professionnels et d'éducateurs possédant une vaste expérience avec Hadoop., Big Data et DB2. Son objectif est de rendre l'éducation au Big Data accessible gratuitement à tous, afin qu'il puisse conduire à des connaissances et des découvertes dans des domaines variés, comme la santé et l'environnement. La plupart des cours incluent des cours en laboratoire que vous pouvez suivre dans le cloud, sur des images VMWare ou en installant localement le logiciel requis. Entièrement gratuit, les étudiants obtiennent un certificat en réussissant l'examen final.
  • Cloudera: Cloudera fournit une certification de renommée mondiale pour le Big Data. Cloudera certifie de véritables spécialistes qui ont démontré leurs compétences pour performer au plus haut niveau à la fois dans les examens traditionnels et les défis pratiques avec des ensembles de données en direct..
  • Coursera: Avez-vous besoin de comprendre le Big Data et son impact sur votre entreprise? Cette spécialisation est pour vous. Acquérir une compréhension des informations que le Big Data peut fournir grâce à une expérience pratique avec les outils et les systèmes utilisés par les scientifiques et les ingénieurs du Big Data. Aucune expérience de programmation préalable requise !! Vous serez guidé à travers les bases de l'utilisation d'Hadoop avec MapReduce, Étincelle, Cochon et Ruche. En suivant le code fourni, vous découvrirez comment la modélisation prédictive peut être effectuée et tirerez parti de l'analyse graphique pour modéliser les problèmes. Cette spécialisation vous préparera à poser les bonnes questions sur les données, communiquer efficacement avec les scientifiques des données et effectuer une exploration de base d'ensembles de données volumineux et complexes.

Abonnez-vous à notre newsletter

Nous ne vous enverrons pas de courrier SPAM. Nous le détestons autant que vous.