Mangel an Datenqualität Dies ist eines der Hauptprobleme der Verantwortlichen für Informationssysteme und Unternehmen im Allgemeinen., da es eindeutig eines der Probleme darstellt „versteckt“ ernster und hartnäckiger in jeder Organisation.
In Wirklichkeit, eine gute Datenqualität ist der stärkste Unternehmenswertda es Ihnen ermöglicht, das Wachstum zu beschleunigen und Kosten und Initiativen besser zu verwalten, um bessere Renditen zu erzielen.
Wie wir Datenqualität definieren
Entsprechend ISO-Regel 9000: 2000, Qualität könnte definiert werden als „der Grad, in dem eine Reihe von inhärenten Merkmalen die Anforderungen erfüllt, Mit anderen Worten, mit dem festgestellten Bedarf oder der Erwartung, allgemein implizit oder obligatorisch“.
In den Worten von David Loshin, Präsident der Integrität des Wissens, Inc: „In der Lage sein, Datenqualitätsprobleme mit ihren Auswirkungen auf das Geschäft in Beziehung zu setzen, wir müssen sowohl unsere Erwartungen an die Datenqualität als auch die Kriterien der Auswirkung auf das Unternehmen kategorisieren können“.
Das DR. Kaoru Ishikawa (1988), zur selben Zeit, berücksichtige das: „In seiner engsten Auslegung, Qualität bedeutet Produktqualität, aber im weitesten Sinne bedeutet es Qualität der Arbeit, Servicequalität, Informationsqualität, Qualität des Verfahrens, Managementqualität und Unternehmensqualität „.
Wie wir es kontrollieren
Um einen zu bekommen gute Qualitätskontrolle Es ist notwendig, ein ganzes Verfahren abzudecken, um unser Ziel zu erreichen, das ist die Verbesserung der Qualität für eine bessere und größere Zufriedenheit des Kunden und sich selbst als Unternehmen oder Branche.
Um die Details dieses Verfahrens zu kennen, Klicken Sie hier, um ein begleitendes E-Book zu diesem Beitrag herunterzuladen, das das Thema viel eingehender behandelt.
Durch die Etappen, Wir haben die Möglichkeit, jede Anomalie zu erkennen, die während eines unserer Prozesse auftreten kann, bevor wir unser Ziel erreichen, Daher ist es unbedingt erforderlich, eine adäquate, korrekte Überwachung und kontinuierliche Verbesserung.
Die Vorteile
Unternehmen, die der Qualität ihrer Daten Relevanz geben, ermöglichen es ihnen, wichtige Vorteile zu erzielen, um dem Geschäft einen Mehrwert zu verleihen und sich vom Rest ihrer Wettbewerber abzuheben, Toasten:
-
Minimieren Sie Risiken in Ihren Projekten, insbesondere solche im Zusammenhang mit Informationstechnologien.
-
Sparen Sie Zeit und Ressourcen, bessere Nutzung der Infrastruktur und der technologischen Systeme, um Ihre Informationen zu verwerten.
-
Rechtzeitige Geschäftsentscheidungen, basierend auf zuverlässigen Informationen, validiert und sauber.
-
Anpassung an internationale Standards oder Vorschriften zum Informationsmanagement, ermöglicht eine einfache Ausführung.
-
Vertrauen stärken, gute Beziehungen und das Image des Unternehmens bei seinen Kunden im Vergleich zum Wettbewerb.
Welche Relevanz hat Big Data Qualität und ihre Herausforderungen?
Kennt Welche Bedeutung hat Qualität? Big-Data-Daten wir müssen darauf achten, dass dies eine Voraussetzung für die Analyse und Nutzung von Big Data ist und den Wert dieser Daten garantiert. Die Entwicklung von Technologien wie Cloud Computing, das Internet der Dinge und soziale Medien, hat dazu geführt, dass die Datenmenge kontinuierlich ansteigt und sich in einer noch nie dagewesenen Geschwindigkeit ansammelt..
Durch die Gewinnung und Analyse von Big Data aus verschiedenen Quellen und mit unterschiedlichen Verwendungen, Forscher und alle Entscheidungsträger in Unternehmen haben erkannt, dass diese riesige Menge an Informationen viele Vorteile bieten kann, um die Bedürfnisse der Kunden zu verstehen, Servicequalität verbessern und Risiken vorhersagen und vermeiden. Aber trotzdem, die Nutzung und Analyse von Große Daten muss auf genauen Daten basieren, was uns sehen lässt Welche Relevanz hat die Datenqualität?, da es eine notwendige Bedingung ist, aus Big Data Werte zu generieren.
Merkmale von Big Data
EIN messenDas "messen" Es ist ein grundlegendes Konzept in verschiedenen Disziplinen, , die sich auf den Prozess der Quantifizierung von Eigenschaften oder Größen von Objekten bezieht, Phänomene oder Situationen. In Mathematik, Wird verwendet, um Längen zu bestimmen, Flächen und Volumina, In den Sozialwissenschaften kann es sich auf die Bewertung qualitativer und quantitativer Variablen beziehen. Die Messgenauigkeit ist entscheidend, um zuverlässige und valide Ergebnisse in der Forschung oder praktischen Anwendung zu erhalten.... que los macrodatos introducen nuevas funciones, Auch die Qualität Ihrer Daten steht vor vielen Herausforderungen. Big-Data-Eigenschaften werden auf 4V . reduziert: Volumen, Geschwindigkeit, Vielfalt und Wert:
- Volumen verweist auf die enorme Datenmenge. Wir verwenden normalerweise TB oder größere Mengen, um dieses Datenvolumen zu messen.
- Das Geschwindigkeit bedeutet, dass Daten in beispielloser Geschwindigkeit erstellt werden und zeitnah verarbeitet werden müssen.
- Vielfalt weist darauf hin, dass Big Data alle Arten von Datentypen hat, und diese Vielfalt unterteilt die Daten in strukturierte Daten und unstrukturierte Daten. Diese Daten unterschiedlicher Art erfordern größere Datenverarbeitungskapazitäten.
- Schließlich, Wert repräsentiert eine niedrige Wertdichte. Die Dichte des Wertes ist umgekehrt proportional zur Gesamtgröße der Daten, je größer der Umfang von Big Data, weniger wertvoll sind die Daten.
Die Herausforderungen der Big-Data-Datenqualität
Denn Big Data hat diese Eigenschaften von 4V, wenn Unternehmen Big Data nutzen und verarbeiten, Extrahieren hochwertiger echter Daten aus massiven Datensätzen, variabel und kompliziert, das wird ein dringendes Hindernis. Heutzutage, Die Qualität von Big-Data-Daten steht vor den folgenden Herausforderungen:
- Die Vielfalt der Quellen Daten bieten umfangreiche Datentypen und komplexe Datenstrukturen und erhöhen die Schwierigkeit der Datenintegration.
- Das Datenvolumen ist enorm, und es ist schwierig, die Qualität der Daten in angemessener Zeit zu beurteilen.
- Daten ändern sich sehr schnell und das „Pünktlichkeit“ der Daten sind sehr kurz, was höhere Anforderungen an die Verfahrenstechnik stellt.
- Es gibt nicht zu viele Standards für Datenqualität Einheitliche und genehmigte Datenqualitäts- und Big-Data-Forschung.
Big-Data-Qualitätskriterien
Big Data ist relativ neu und es gibt keine einheitliche Definition der Qualität Ihrer Daten oder der anzuwendenden Qualitätskriterien.. Aber eines ist wahr: die Qualität der Daten hängt nicht nur von ihren eigenen Eigenschaften ab, aber zusätzlich zum Geschäftsumfeld, das die Daten verwendet, einschließlich Benutzer und Geschäftsprozesse. Als qualifizierte Daten gelten nur Daten, die zu den jeweiligen Verwendungszwecken passen und die Anforderungen erfüllen (oder gute qualität).
Regelmäßig, Datenqualitätsstandards werden aus Sicht der Datenproduzenten entwickelt. In der Vergangenheit, Datenkonsumenten waren direkte oder indirekte Datenproduzenten, die die Qualität der Daten garantierten. Aber trotzdem, Im Zeitalter von Big Data, mit der Vielfalt der Datenquellen, Datennutzer sind nicht unbedingt Datenproduzenten. Deswegen, es ist sehr schwierig, die Qualität der Daten zu messen.
Wir wählen die allgemein akzeptierten und weit verbreiteten Datenqualitätsdimensionen als Big-Data-Qualitätsstandards und definieren deren Kernkonzepte basierend auf den tatsächlichen Geschäftsanforderungen neu. Zur selben Zeit, jeden Abmessungen"Dimension" Es handelt sich um einen Begriff, der in verschiedenen Disziplinen verwendet wird, wie z.B. Physik, Mathematik und Philosophie. Er bezieht sich auf das Ausmaß, in dem ein Objekt oder Phänomen analysiert oder beschrieben werden kann. In der Physik, zum Beispiel, Es ist die Rede von räumlichen und zeitlichen Dimensionen, während es sich in der Mathematik auf die Anzahl der Koordinaten beziehen kann, die notwendig sind, um einen Raum darzustellen. Es zu verstehen, ist grundlegend für das Studium und... se puede dividir en muchos ítems típicos asociados a ella, und jeder Artikel hat seine eigenen entsprechenden Qualitätsindikatoren. Diesen Weg, das hierarchische Qualitätsstandards für Big Data:
- Verfügbarkeit:
- Barrierefreiheit:
- Ob eine Datenzugriffsschnittstelle bereitgestellt wird
- Daten können öffentlich gemacht oder leicht erworben werden
- Wahrscheinlichkeit:
- Innerhalb einer bestimmten Zeit, wenn die Daten pünktlich ankommen
- Wenn die Daten regelmäßig aktualisiert werden
- Wenn der Zeitraum zwischen Datenerhebung und Verarbeitung bis zur Veröffentlichung den Anforderungen entspricht.
- Glaubwürdigkeit:
- Die Daten stammen von spezialisierten Institutionen eines Landes, Bereich oder Branche.
- Experten oder Spezialisten prüfen regelmäßig die Richtigkeit der Dateninhalte.
- Daten liegen im Bereich bekannter oder akzeptabler Werte
- Genauigkeit
- Die angegebenen Daten sind korrekt
- Die Repräsentation (der Wert) der Daten spiegeln den tatsächlichen Stand der Quellinformationen gut wieder.
- Informationsdarstellung (Daten) wird keine Mehrdeutigkeit verursachen
- Konsistenz:
- Nach der Verarbeitung der Daten, deine Konzepte, Wertdomänen und -formate stimmen weiterhin wie vor der Verarbeitung überein.
- Für eine Zeit, Daten bleiben konsistent und überprüfbar.
- Alle Daten sind konsistent oder überprüfbar
- Integrität:
- Das Datenformat ist klar und erfüllt die Kriterien.
- Daten stimmen mit struktureller Integrität überein
- Die Daten stimmen mit der Integrität des Inhalts überein.
- Ich vervollständige es:
- Ob sich ein Komponentenmangel auf die Datennutzung für Mehrkomponentendaten auswirkt
- Ob ein Komponentenmangel die Genauigkeit und Integrität der Daten beeinträchtigt.
- Bequemlichkeit:
- Die erhobenen Daten stimmen nicht vollständig mit dem Thema überein, aber sie legen einen Aspekt offen
- Die meisten der wiederhergestellten Datensätze befinden sich innerhalb des Wiederherstellungsthemas, das Benutzer benötigen
- Das Informationsthema stimmt mit dem Thema zur Benutzerwiederherstellung überein
- Lesbarkeit:
- Die Daten (Inhalt, Format, etc.) sind klar und verständlich
- Es ist leicht zu beurteilen, ob die bereitgestellten Daten den Bedürfnissen entsprechen
- Die Beschreibung, Datenklassifizierung und Kodierung entsprechen den Spezifikationen und sind leicht verständlich
Fazit
Das Aufkommen des Big Data-Zeitalters hat dazu geführt, dass Daten aus verschiedenen Branchen und Bereichen ein explosives Wachstum aufweisen. Wie man die Qualität von Big-Data-Daten sicherstellt und wie man Informationen und Erkenntnisse, die hinter den Daten verborgen sind, analysiert und extrahiert, werden für Unternehmen zu großen Problemen... Eine schlechte Datenqualität kann zu einer geringen Effizienz bei der Datennutzung und sogar zu schwerwiegenden Fehlern bei der Entscheidungsfindung führen.
zusammenhängende Posts: