Google annonce des améliorations dans BigQuery, l'outil de gestion du Big Data lancé par le géant de l'Internet en 2010 en tant que service capable d'analyser le big data à l'intérieur et à l'extérieur de l'écosystème de Apache Hadoop. Malgré cela, avec ces mises à jour approfondies, les servicio en la nubeLe "servicio en la nube" se refiere a la entrega de recursos informáticos a través de Internet, permitiendo a los usuarios acceder a almacenamiento, procesamiento y aplicaciones sin necesidad de infraestructura física local. Este modelo ofrece flexibilidad, escalabilidad y ahorro de costos, ya que las empresas solo pagan por lo que utilizan. En outre, facilita la colaboración y el acceso a datos desde cualquier lugar, mejorando la eficiencia operativa en diversas... fortalece su operación independiente y busca atraer usuarios de Hadoop, le leader actuel de l'analyse Big Data.
Alors que la deuxième génération d'Hadoop essaie de surmonter ses faiblesses telles que le manque de vitesse et de complexité, tout en renforçant ses avantages évidents, Google oriente le développement de BigQuery vers la commercialisation du service en tant que alternative pour que.
Même si BigQuery est compatible avec Hadoop et que les deux produits ont été créés directement ou indirectement par Google, leurs chemins ne semblent pas destinés à se croiser. S'ils l'ont fait jusqu'ici, malgré cela Google montre qu'il veut les séparer de plus en plus pour booster son avantage compétitif sur tous les fronts, y compris sa rivalité avec AWS Kinesis.
En réalité, BigQuery busca ser una factible alternativa a la opción open source presentada por CarteRéduireMapReduce es un modelo de programación diseñado para procesar y generar grandes conjuntos de datos de manera eficiente. Desarrollado por Google, este enfoque Divide el trabajo en tareas más pequeñas, las cuales se distribuyen entre múltiples nodos en un clúster. Cada nodo procesa su parte y luego se combinan los resultados. Este método permite escalar aplicaciones y manejar volúmenes masivos de información, siendo fundamental en el mundo del Big Data.... Oui Système de fichiers distribué HadoopEl Sistema de Archivos Distribuido de Hadoop (HDFS) es una parte fundamental del ecosistema Hadoop, diseñado para almacenar grandes volúmenes de datos de manera distribuida. HDFS permite el almacenamiento escalable y la gestión eficiente de datos, dividiendo archivos en bloques que se replican en diferentes nodos. Esto asegura la disponibilidad y la resistencia ante fallos, facilitando el procesamiento de datos masivos en entornos de big data.... (HDFSHDFS, o Sistema de Archivos Distribuido de Hadoop, es una infraestructura clave para el almacenamiento de grandes volúmenes de datos. Diseñado para ejecutarse en hardware común, HDFS permite la distribución de datos en múltiples nodos, garantizando alta disponibilidad y tolerancia a fallos. Su arquitectura se basa en un modelo maestro-esclavo, donde un nodo maestro gestiona el sistema y los nodos esclavos almacenan los datos, facilitando el procesamiento eficiente de información...). Avec la mise à jour en profondeur qui, entre autres améliorations, permet de combiner les résultats des requêtes de plusieurs tables de données, Google entend exploiter le la vitesse et le analyse en temps réel fourni par Dremel, le produit sur lequel la conception BigQuery est basée.
Analyse de données cloud
Conçu comme un service qui facilite requête rapide dans le cloud une fois que l'utilisateur a envoyé des données à Google via l'API BigQuery, votre mise à jour continue de se concentrer sur les requêtes de type SQL. Dans cette nouvelle version, se agregan nuevas capacidades junto con la función antes mencionada de unir datos de varias tablas en una sola consulta por medio de una nueva cláusula REJOINDRE"REJOINDRE" es una operación fundamental en bases de datos que permite combinar registros de dos o más tablas basándose en una relación lógica entre ellas. Existen diferentes tipos de JOIN, como INNER JOIN, LEFT JOIN y RIGHT JOIN, cada uno con sus propias características y usos. Esta técnica es esencial para realizar consultas complejas y obtener información más relevante y detallada a partir de múltiples fuentes de datos...., pas de limite sur la taille des données.
Jusqu'au moment, BigQuery ne pouvait gérer que des groupes de données d'un maximum de 8 Mo et, d'autre part, ajouter des fonctionnalités pour importer des horodatages d'autres systèmes, interrogez les données datetime ou ajoutez des colonnes aux tables existantes et recevez des e-mails automatiques lorsqu'ils ont accès à plus d'ensembles de données.
Dans les mots de Ju-kay Kwek, Chef de produit, les changements se traduisent par plus de vitesse, simplicité et facilité d'utilisation:
Actuellement, avec BigQuery, les idées commerciales peuvent être obtenues directement via des requêtes de type SQL, avec moins d'effort et à une vitesse beaucoup plus élevée qu'auparavant. Joindre des tables de données de téraoctets a toujours été une tâche difficile pour les analystes, car jusqu'à présent, cela nécessitait des compétences de développement sophistiquées de MapReduce, matériel puissant et beaucoup de temps.
Son utilisation n'a aucun rapport avec le cadre éléphant jaune, envisager de s'en passer comme un avantage supplémentaire du produit. Depuis Google Ils commentent qu'au lieu d'installer Hadoop, l'utilisation de BigQuery vous fera économiser de l'argent en payant uniquement pour chaque requête plutôt que le coût informatique de l'infrastructure requise pour la mettre en œuvre. Avec ça et avec tout, également, Hadoop a été créé en son temps à partir de technologies telles que MapReduce et Google File pour traiter de grandes quantités de données à très faible coût.
Technologie Microsoft SQL et Hadoop
Pour sa part, Microsoft a récemment présenté ses solutions Big Data issues du cloud en faveur de l'Internet des objets. À partir d'une plate-forme unique pour la gestion et l'analyse des données, son utilisation d'Hadoop fait partie de l'une de ses innovations majeures: un serveur SQL 2014 plus rapide et son Intelligent Systems Service (IIS) y Système de plate-forme analytique (APS).
La dernière version d'APS est un produit à faible coût grâce à la combinaison de la technologie de Hadoop et Microsoft SQL proposer un Data Warehouse qui stocke et gère les données traditionnelles ainsi que la dernière génération.
En tant que nouveau service Azure, se presentó Microsoft Azure Intelligent System Service (ISS), un outil conçu pour fonctionner à partir de n'importe quel système d'exploitation afin de profiter très tôt des informations générées. différentes sources, comme des machines, capteurs ou appareils. en outre, CCC est rendu disponible grâce à des outils comme Power BI pour Office 365 qui permettent de combiner données locales et données cloud de manière complémentaire, résultant en une gestion rapide de l'information.
Article similaire: