Hadoop- und Big-Data-Lösungen

Inhalt

Große Daten

Hadoop-Lösungen und Große Daten eröffnet vielfältige Alternativen für den Umgang mit Big Data. Obwohl Cloudera einst das erste kommerzielle Paket veröffentlicht hat, das auf Hadoop basiert, heute existiert eine sehr große figur von kommerziellen Distributionen, die ihre Konfiguration und Installation erleichtern wollen.

Als Leitfaden, in einem aktuellen Analyse der Zukunft-Bericht mit dem Titel “Hadoop: Branchenwachstumstrends und Prognosen bis 2020”, Die folgenden zehn Unternehmen werden als die Top-Unternehmen ausgewählt, die auf dem Hadoop-Markt tätig sind:

  • Amazon-Webdienste
  • Cisco-Systeme
  • Cloudera Inc
  • Datenmeer, Inc
  • Hortonworks, Inc
  • Karmasphäre, Inc.
  • MapR-Technologien
  • Pentaho Corporation
  • Teradata Corporation
  • Logik markieren

Trotz dieses, die Landschaft verändert sich ständig. Laut dem gleichen Bericht, die Zahl der Hadoop-Distributoren wird voraussichtlich steigen und, deshalb, das gebündelte Softwareangebot. In Wirklichkeit, das ist ein aktueller trend, weil gleichzeitig diese Unternehmen, Es entstehen ständig kleinere Anbieter, die gehen an Stärke gewinnen für seine Agilität, zwingt große Unternehmen zu Innovationen.

Speziell, der Markt für Hadoop-Softwarepakete würde eine durchschnittliche jährliche Rate von 62,9% im analysierten Zeitraum, Komm herein 2013 Ja 2020.

Reseller helfen ihren Kunden bei der Datenverwaltung über Hadoop, eine Open-Source-Software, die große Mengen an Big-Data-Informationen kategorisieren und analysieren kann. es ist, Zusammenfassend, Analyse vereinfachen Daten, die dem ursprünglichen Apache Hadoop-Framework einen Mehrwert verleihen, der gemeinsame Rahmen.

Das Hadoop-Ökosystem

Auch wenn dein Name einzigartig ist, Hadoop ist eigentlich eine Familie von Open-Source-Technologien, die von der Apache Software Foundation beaufsichtigt werden, und daher erlauben einige seiner Produkte verschiedene Kombinationen und wir können sie in kommerziellen Paketen finden.

Nach Philip Russom, Direktor für Datenmanagementforschung am Data Warehousing Institute, die Hadoop-Bibliothek enthält, “In der Reihenfolge der BI-Priorität: Hadoop-Dateisystem verteilen (HDFS), Karte verkleinern, Schwein, Bienenstock, HBase, HCatalog, Ambari, Mohou, Dämpfe, unter anderen ".

Zur selben Zeit, die Hadoop-Community erstellt ständig neue Projekte. Auch wenn es auf verschiedene Weise kombiniert werden kann, nach Expertenmeinung, ein praktischer Tech-Stack wäre HDFS und MapReduce (vielleicht mit Schwein, Bienenstock und HBase) für Business-Intelligence-Anwendungen (MIT EINEM), Datenspeicher (DW), Datenintegration (AUS) und erweiterte Analyse.

Hadoop Apache oder kommerzielle Distribution?

Die komparativen Vorteile zwischen den Distributoren konzentrieren sich auf ihre unterschiedlichen Formeln in Bezug auf Implementierung und einfache Administration, obwohl Open-Source-BI-Lösungen wunderbar auf Geschäftsanforderungen reagieren können, laut einem Forrestar Research-Bericht.

Deswegen, jede Verteilung ist anders und, zur selben Zeit, sie alle teilen ihren Kern, obwohl einige Hersteller ihre eigenen MapReduce-Anwendungen anbieten. A) Ja, gleichzeitig von den neuen Werkzeuggenerationen und den unterschiedlichen kommerziellen Möglichkeiten, Apache Hadoop steht jedem offen, der es für die Speicherung und Verarbeitung großer Mengen unterschiedlicher Daten nutzen möchte.

Die Tatsache, dass Apache Hadoop Open Source ist und über Anbieter verfügbar ist, wirft das unvermeidliche Dilemma auf, sich zu fragen, welche Option bequemer ist. Gleichzeitig Schlüssel sein vergleichen Die technologischen Alternativen vor der Auswahl, Sie müssen auf die wirtschaftlichen Kosten achten, die Einbeziehung und die Notwendigkeit von Verwaltungsinstrumenten, sowie ebenso entscheidende Aspekte wie Wartung und technische Hilfeleistung.

Verwandter Beitrag:

Bildquelle: Zweibiene / FreeDigitalPhotos.net

Abonniere unseren Newsletter

Wir senden Ihnen keine SPAM-Mail. Wir hassen es genauso wie du.