Solutions Hadoop et Big Data ouvre un large éventail d'alternatives pour le traitement des mégadonnées. Bien que Cloudera ait publié une fois le premier package commercial basé sur Hadoop, existe aujourd'hui un très grand chiffre de distributions commerciales qui cherchent à faciliter leur configuration et leur installation.
Comme un guide, dans un récent rapport d'Analyse Future intitulé “Hadoop: Tendances et prévisions de croissance de l'industrie jusqu'en 2020”, Les dix sociétés suivantes sont sélectionnées comme les meilleures sociétés opérant sur le marché Hadoop:
- Services Web Amazon
- Systèmes Cisco
- Cloudera Inc
- Datameer, Inc
- Hortonworks, Inc
- Karmasphère, Inc.
- MapR Technologies
- Société Pentaho
- Société Teradata
- Marquer la logique
Malgré cela, le paysage change constamment. Selon le même rapport, le nombre de distributeurs Hadoop devrait augmenter et, pour cela, l'offre de logiciels groupés. En réalité, c'est une tendance actuelle, car en même temps ces entreprises, De plus petits fournisseurs émergent constamment qui vont prendre de la force pour son agilité, obliger les grandes entreprises à innover.
Spécifiquement, le marché des progiciels Hadoop enregistrerait un taux annuel composé de 62,9% dans la période analysée, Entrez 2013 Oui 2020.
Les revendeurs aident leurs clients à gérer les données via Hadoop, un logiciel open source qui peut catégoriser et analyser de grandes quantités d'informations Big Data. Il est, en résumé, simplifier l'analyse données ajoutant de la valeur au framework Apache Hadoop d'origine, le cadre commun.
L'écosystème Hadoop
Même si ton nom est unique, en fait Hadoop est une famille de technologies open source supervisée par Apache Software Foundation, et donc certains de ses produits permettent diverses combinaisons et on peut les trouver dans des emballages commerciaux.
D'après Philip Russom, directeur de la recherche en gestion des données au Data Warehousing Institute, la bibliothèque Hadoop comprend, “Par ordre de priorité BI: Système de fichiers de distribution Hadoop (HDFSHDFS, o Sistema de Archivos Distribuido de Hadoop, es una infraestructura clave para el almacenamiento de grandes volúmenes de datos. Diseñado para ejecutarse en hardware común, HDFS permite la distribución de datos en múltiples nodos, garantizando alta disponibilidad y tolerancia a fallos. Su arquitectura se basa en un modelo maestro-esclavo, donde un nodo maestro gestiona el sistema y los nodos esclavos almacenan los datos, facilitando el procesamiento eficiente de información...), CarteRéduireMapReduce es un modelo de programación diseñado para procesar y generar grandes conjuntos de datos de manera eficiente. Desarrollado por Google, este enfoque Divide el trabajo en tareas más pequeñas, las cuales se distribuyen entre múltiples nodos en un clúster. Cada nodo procesa su parte y luego se combinan los resultados. Este método permite escalar aplicaciones y manejar volúmenes masivos de información, siendo fundamental en el mundo del Big Data...., PorcEl cerdo, un mamífero domesticado de la familia Suidae, es conocido por su versatilidad en la agricultura y la producción de alimentos. Originario de Asia, su cría se ha extendido por todo el mundo. Los cerdos son omnívoros y poseen una alta capacidad de adaptación a diversos hábitats. En outre, juegan un papel importante en la economía, proporcionando carne, cuero y otros productos derivados. Su inteligencia y comportamiento social también son..., RucheHive es una plataforma de redes sociales descentralizada que permite a sus usuarios compartir contenido y conectar con otros sin la intervención de una autoridad central. Utiliza tecnología blockchain para garantizar la seguridad y la propiedad de los datos. A diferencia de otras redes sociales, Hive permite a los usuarios monetizar su contenido a través de recompensas en criptomonedas, lo que fomenta la creación y el intercambio activo de información...., HBaseHBase es una base de datos NoSQL diseñada para manejar grandes volúmenes de datos distribuidos en clústeres. Basada en el modelo de columnas, permite un acceso rápido y escalable a la información. HBase se integra fácilmente con Hadoop, lo que la convierte en una opción popular para aplicaciones que requieren almacenamiento y procesamiento de datos masivos. Su flexibilidad y capacidad de crecimiento la hacen ideal para proyectos de big data...., HCatalogue, Ambari, Mohout, Fumées, entre autres ".
En même temps, la communauté Hadoop crée constamment de nouveaux projets. Même s'il peut être combiné de plusieurs manières, de l'avis de l'expert, une pile technologique pratique serait HDFS et MapReduce (peut-être avec Cochon, Ruche et HBase) pour les applications de business intelligence (AVEC UN), stockage de données (DW), intégration de données (DE) et analyse avancée.
Hadoop Apache ou distribution commerciale?
Les avantages comparatifs entre distributeurs se concentrent sur leurs différentes formules en termes de mise en œuvre et de facilité d'administration, même si les solutions de BI open source peuvent répondre à merveille aux besoins des entreprises, selon un rapport de Forrestar Research.
Pourtant, chaque distribution est différente et, en même temps, ils partagent tous leur cœur, même si certains fabricants proposent leurs propres applications MapReduce. A) Oui, à la fois des nouvelles générations d'outils et des différentes options commerciales disponibles, Apache Hadoop est ouvert à toute personne souhaitant l'utiliser pour le stockage et le traitement de grandes quantités de données disparates.
Le fait qu'Apache Hadoop soit open source disponible auprès des fournisseurs soulève le dilemme inévitable de se demander quelle option est la plus pratique. En même temps étant la clé comparer Les alternatives technologiques avant de choisir, il faut faire attention au coût économique, l'inclusion et le besoin d'outils administratifs, ainsi que des aspects tout aussi décisifs tels que la maintenance et l'assistance technique.
Article similaire:
Source de l'image: Deux abeilles / FreeDigitalPhotos.net