Meint: Big Data

Inhalt

Blogs / Tutorials
Big-Data-7571612

Einführung in Hadoop

Hadoop ist ein komplettes Ökosystem von Open-Source-Projekten, das einen Rahmen für den Umgang mit Big Data bietet. Hier ist eine einfache Erklärung von Hadoop anhand interessanter Beispiele.

Einführung in MapReduce

Nach der Einführungsreihe, Hier ist eine einfache Erklärung von MapReduce, ein Programmiermodell zur Verarbeitung großer Datensätze.

Hadoop jenseits des traditionellen MapReduce: vereinfacht

Nach dem Erwerb von Grundkenntnissen in Hadoop und MapReduce, Es ist Zeit, zu fortgeschrittenen Konzepten überzugehen. Dieser Artikel behandelt Themen wie das erweiterte Hadoop-System, Apache-Schwein, Bienenstock, Impala, sqoop, Gerinne, Bienenstock und andere verwandte Konzepte.

Bringe deinen Elefanten dazu, Datenmanipulationen durchzuführen (mit MapReduce)

In diesem Artikel werden MapReduce-Anwendungen mit HDFS mit einigen nützlichen Tipps und Tricks vorgestellt, um Big-Data-Berechnungen schneller durchzuführen..

Kompletter Anfängerleitfaden zu MongoDB

Hier ist ein kompletter Anfängerleitfaden zum Erlernen von MongoDB. Die Hauptintention dieses Artikels ist es, den Arbeitsprozess von MongoDB und seinen verwandten Komponenten so einfach wie möglich zu erklären..

Holen Sie sich Mongo-ed im NoSQL-Manager, R & Python

Nachdem Sie die Grundlagen von MongoDB . gelesen haben,, Dies sollte Ihr unmittelbarer Schritt sein, um mehr über die Verwendung von MongoDB in R zu erfahren, Python und NoSQL. Seine Fähigkeit, sich mühelos in Technologien von Drittanbietern zu integrieren, macht MongoDB zu einer der besten Optionen in der Big-Data-Branche..

Lernen Sie Cloud-Computing in R

Dieser Artikel erklärt das Konzept des Cloud Computing in R Programming und R Studio anhand einer schrittweisen Methodik. Was ist mehr, Außerdem erfahren Sie mehr über die Vorteile der Verwendung von R in der Cloud im Vergleich zur herkömmlichen Desktop- oder Client-Architektur / lokaler Server.

Eindrucksvolle Big Data – GitHub-Repository

Hier ist ein Github-Repository mit allen notwendigen Ressourcen, um Big-Data-Technologien zu beherrschen. Scheint ein umfassender Ressourcenleitfaden für Big Data zu sein, aber trotzdem, stellt sicher, dass Sie sich nicht in dieser reichhaltigen Liste von Ressourcen verlieren und sich auf das konzentrieren, was Sie lernen möchten.

SparkR-Lernpfad

Hier ist eine Ressource, um mit dem Erlernen von sparkR . zu beginnen, eine R-Bibliothek, um die Apache Spark-Technologie zu nutzen.

Umfassende Einführung in Apache Spark

Hier ist ein umfassender Artikel, der alles abdeckt, von den Grundlagen des verteilten Computings bis hin zum Erlernen der Verwendung der Apache Spark-Technologie, um enorme Geschwindigkeits- und Skalierbarkeitsgewinne zu erzielen..

Die besten YouTube-Videos

Lernen Sie Big Data Analytics mit den besten YouTube-Videos, TED Talks und andere Ressourcen

Schulungen und Zertifizierungen:

  • Big-Data-Universität: Big Data University ist eine Cloud-basierte Online-Bildungsseite, die kostenlose und kostenpflichtige Kurse anbietet, die von einer Gruppe von Fachleuten und Pädagogen unterrichtet werden, die über umfassende Erfahrung mit Hadoop verfügen., Big Data und DB2. Ihr Ziel ist es, Big-Data-Bildung für alle frei zugänglich zu machen, damit es zu Erkenntnissen und Entdeckungen in verschiedenen Bereichen führen kann, wie Gesundheit und Umwelt. Die meisten Kurse beinhalten Laborkurse, die Sie in der Cloud belegen können, auf VMWare-Images oder lokale Installation erforderlicher Software. Völlig kostenlos, Studierende erhalten ein Zertifikat durch Bestehen der Abschlussprüfung.
  • Cloudera: Cloudera bietet eine weltweit anerkannte Zertifizierung für Big Data. Cloudera zertifiziert echte Spezialisten, die ihre Fähigkeiten unter Beweis gestellt haben, sowohl in traditionellen Prüfungen als auch in praktischen Herausforderungen mit Live-Datensätzen auf höchstem Niveau zu arbeiten..
  • Kursra: Müssen Sie Big Data verstehen und wie es sich auf Ihr Unternehmen auswirkt?? Diese Spezialisierung ist für dich. Gewinnen Sie ein Verständnis für die Erkenntnisse, die Big Data liefern kann, indem Sie praktische Erfahrungen mit den Tools und Systemen machen, die von Big Data-Wissenschaftlern und -Ingenieuren verwendet werden.. Keine Vorkenntnisse in der Programmierung erforderlich!! Sie werden durch die Grundlagen der Verwendung von Hadoop mit MapReduce geführt, Funke, Schwein und Bienenstock. Indem Sie dem bereitgestellten Code folgen, Sie erfahren, wie prädiktive Modellierung durchgeführt werden kann und nutzen die Graphanalyse, um Probleme zu modellieren. Diese Spezialisierung bereitet Sie darauf vor, die richtigen Fragen zu den Daten zu stellen, kommunizieren effektiv mit Datenwissenschaftlern und führen grundlegende Untersuchungen großer und komplexer Datensätze durch.

Abonniere unseren Newsletter

Wir senden Ihnen keine SPAM-Mail. Wir hassen es genauso wie du.