Big-Data-Implementierungstypen

Inhalt

¿Wie kann man eine Big-Data-Implementierung? Auf diese Frage gibt es keine einheitliche Antwort, da sie davon abhängen wird:

big20data-1-3673541

– Das Business-Intelligence-Reife des Unternehmens.

– Die Infrastruktur, die die Organisation für die Implementierung hat.

– Ihr Kenntnisstand über die neue Umgebung, Deine Erfahrung (Datenwissenschaft).

– dein Ansatz, innovativer oder traditioneller, das wird Ihre Wahl eindeutig bestimmen.

Auf jeden Fall, Wir können das sagen, allgemein, die Unternehmen, abhängig von Ihrer Konfiguration und abhängig von den oben genannten Faktoren, sind nach drei gruppiert verschiedene Big-Data-Implementierungsmodelle:

– Revolutionär

– evolutionär

– Hybrid

Die revolutionäre Implementierung von Big Data

wer wählt das wie man Big Data implementiert Sie haben beschlossen, mit allem zu brechen und von vorne anzufangen. Es ist offensichtlich, dass alle Unternehmen bereits arbeiten, Sie haben Daten generiert und speichern und verarbeiten sie auf ihre Weise. Bis um Erstkontakt mit Big Data Entscheidungen auf der Grundlage von Daten getroffen haben, aber immer mit einer hohen Unsicherheitskomponente und einem Anteil an Fakten, die heute gefährlich lächerlich erscheinen mögen.

Diese Implementierung bringt sie auf den Weg, die besten Entscheidungen zu treffen, weil sie ihnen die Möglichkeit dazu gibt, nicht nur in Bezug auf das Volumen, sondern auch in Bezug auf die Analyseleistung. Auch wenn es nach Magie klingt, mach diesen großen Schritt, qualitativ gesehen, erfordert nicht mehr und nicht weniger, als alle verfügbaren Daten in die neue Umgebung zu verschieben. Ja, zusammen mit ihnen, die Berichte, das Modellierung und Integration in Geschäftsprozesse. Die Vergangenheit wird hinter sich gelassen und auf dieser neuen Plattform wird vom ersten Moment an alles bei Null beginnen.

Es gibt 3 drei Technologien, mit denen es durchgeführt werden kann: Hadoop, das parallele Datenbanken und das in Gedächtnisdatenbanken, zu Echtzeitanalyse. Durch seine Taktik “teilen und erobern”, ermöglichen es Ihnen, mit großen Mengen an Informationen in kurzer Zeit und zu geringen Kosten zu arbeiten, ergänzt durch die Möglichkeit, alles auf die zu übertragen Wolke.

* Vorteile dieser Art der Implementierung:

Agilität in der Informationsverarbeitung– Da wird jede Portion viel schneller verarbeitet und was früher gedauert 6 Stunden dauert jetzt Minuten.

– Optimierung der Ressourcen, die eine bemerkenswerte impliziert Kostenreduzierung im Vergleich zu anderen Methoden.

Flexibilität Nutzung dank Knotensystem: Dadurch können Sie auch berechnen, was ausgegeben wird, und nur für das bezahlen, was verwendet wird.

* Nachteile:

– Hohe Qualifikationskosten, dazu käme noch die Schwierigkeit, Kandidaten mit diesem Profil auf dem Markt zu finden, Profis, die sich mit dieser Technologie auskennen und richtig damit umgehen können, das Beste daraus machen.

– Es kann auch eine längere Adaptionszeit bis zur Inbetriebnahme bedeuten, im Vergleich zu anderen Systemen, da es sich um eine völlig neue Methode handelt.

Big-Data-Implementierung: die evolutionäre Methode

Die evolutionäre Methode ist ein weiterer Zugangsweg zu dieser Welt, den Unternehmen oft wählen, vielleicht nicht so wegweisend, aber sie hatten schon eine MIT EINEM ziemlich ausgereift. Wir sprechen über Organisationen, die ihre haben Anzahlung, es ist Visualisierungs- und Reporting-Tool und die seit Jahren Daten analysieren, altmodisch aber ausgereift.

begnüge dich damit evolutionäre Methode zur Implementierung von Big Data Es wird angenommen dass, Beibehaltung der aktuellen Struktur, Daten, die nicht in das System gepasst haben, werden einfach zur Vorverarbeitung von der Plattform hinzugefügt Große Daten. Daher, das aktuelle System kann sie sehen und so werden sie erreicht Analyse, die vom gleichen oder ähnlichen Typ bleiben, aber jetzt weitere Daten hinzufügen.

Der Vorteil dieser Option besteht darin, dass Ihre Eintrittsschwelle niedrigere Kosten verursacht, da Unternehmen ihr Tool weiterhin nutzen können, Obwohl die Datenextraktion und seine Strukturierung verantwortlich ist Große Daten. Spezifisch, Big Data wird zu einem Input für Plattform de BI bestehende. Daten werden gesammelt und analysiert, und die Ergebnisse werden an gesendet Data Warehouse.

* Vorteile dieses Systems:

– Leistung. Modelle werden nun von zunehmend diversifizierten Daten gespeist.

– Volumen. sehen vervielfacht die Informationsmenge was bekommst du, Dank an Große Daten.

– Ersparnisse. beides zeitlich Implantation, wie bei den Kosten, wie MIT EINEM bestehende.

* Nachteile:

– Die Geschwindigkeit von einem Ende zum anderen wird immer durch begrenzt aktuelle BI-Umgebung (was viel langsamer ist).

– Die Wahrnehmungsebene ist nicht so breit, da würde die Granularität an der scheitern MIT EINEM bestehende.

– Diese Lösung ist nicht endgültig, denn irgendwann kommt die zeit MIT EINEM nicht in der Lage ist, die Informationsanforderungen der Organisation zu erfüllen, und muss sich dafür entscheiden, die vollständige Übertragung der Daten außerhalb des Unternehmens durchzuführen.

Die hybride Alternative zur Big-Data-Implementierung

Dieses System wechselt die Verwendung einer Technologie und der anderen je nach verfolgtem Ziel.. Für eine bestimmte Art von Informationen, Analyse oder Benutzer, das MIT EINEM bestehende, Während für viel verfeinerte Analyse, Wie die von prädiktiver Typ, Simulationen, etc. verwendet werden würde Große Daten. Um es zu machen, es würde genügen, ein paar Integrationspunkte einzurichten, die Daten bekommen Data Warehouse werden in der Analyse-Engine gespeichert, was vom Parser als a gesehen werden würde Datenmarkt.

Bei dieser Variante Große Daten ist nicht nur ein Anhang zum MIT EINEM Dadurch können Sie jetzt Daten sehen, die Sie vorher nicht sehen konnten, aber es ist auch eine Plattform, die dazu dient, etwas zu machen erweiterte Analyse Mischen von Daten mit den traditionellen, die noch existieren, mit den neuen wie Sozialen Medien o la Unstrukturierte Daten an die der BI von früher bei der Arbeit nicht gedacht hat.

* Vorteil:

– Präzision: Systeme werden nun mit strukturierten Informationen gefüttert, wenn sie zuvor nur auf unstrukturierte Daten zugreifen konnten.

Große Analytik. Oder was ist gleich, Fähigkeit, prädiktive Analysen durchzuführen, Erstellung eines statistischen Modells mit allen Daten und Identifizierung kausaler Zusammenhänge und Korrelationen; sich auch auf fortschrittliche Visualisierungstools verlassen.

Internet der Dinge: die es ermöglicht, in Echtzeit alles zu wissen, was an jedem Ort und in Bezug auf jede Angelegenheit passiert.

Kosteneffektivität. Bestimmt, Mit dieser Option können Sie bessere Dienste anbieten als, Natürlich, kann auch verrechnet werden.

* Nachteile:

– Widerstand: der am wenigsten entwickelten Unternehmen, technologisch gesprochen, zur Umsetzung eines solchen Modells.

– Schwierigkeit: derer, die es gewohnt sind, sich auf eine rein deskriptive Art der Analyse zu beschränken, beim Aufbruch in neue Möglichkeiten.

(Funktion(D, S, Ich würde) {
var js, fjs = d.getElementsByTagName(S)[0];
Wenn (d.getElementById(Ich würde)) Rückkehr;
js = d.createElement(S); js.id = id;
js.src = “//connect.facebook.net/es_ES/all.js#xfbml=1&Status=0”;
fjs.parentNode.insertBefore(js, fjs);
}(dokumentieren, 'Skript', 'facebook-jssdk'));

Abonniere unseren Newsletter

Wir senden Ihnen keine SPAM-Mail. Wir hassen es genauso wie du.