Google anuncia mejoras en BigQuery, la herramienta de administración de Big Data lanzada por el gigante de Internet en 2010 como un servicio capaz de analizar big data dentro y fuera del ecosistema de Apache Hadoop. Nonostante questo, con estas actualizaciones profundas, il Servizio cloudIl "Servizio cloud" si riferisce alla fornitura di risorse informatiche su Internet, Consentire agli utenti di accedere allo storage, elaborazione e applicazioni senza la necessità di un'infrastruttura fisica locale. Questo modello offre flessibilità, Scalabilità e risparmio sui costi, poiché le aziende pagano solo per ciò che usano. Cosa c'è di più, Facilita la collaborazione e l'accesso ai dati da qualsiasi luogo, migliorare l'efficienza operativa in vari settori.. fortalece su operación independiente y busca atraer usuarios de Hadoop, el líder actual en análisis de Big Data.
Mientras que la segunda generación de Hadoop intenta superar sus debilidades como la falta de velocidad y complejidad, al mismo tiempo de reforzar sus obvias ventajas, Google enfoca el desarrollo de BigQuery hacia la comercialización del servicio como alternativa a ese.
Aún cuando BigQuery es compatible con Hadoop y ambos productos han sido creados directa o indirectamente por Google, sus caminos no parecen estar destinados a seguir cruzando. Si lo hacían hasta el momento, a pesar de esto Google demuestra que quiere separarlos cada vez más para impulsar su vantaggio competitivo en todos los frentes, incluida su rivalidad con Kinesis de AWS.
In realtà, BigQuery busca ser una factible alternativa a la opción open source presentada por Riduci mappaMapReduce è un modello di programmazione progettato per elaborare e generare in modo efficiente set di dati di grandi dimensioni. Sviluppato da Google, Questo approccio suddivide il lavoro in attività più piccole, che sono distribuiti tra più nodi in un cluster. Ogni nodo elabora la sua parte e poi i risultati vengono combinati. Questo metodo consente di scalare le applicazioni e gestire enormi volumi di informazioni, essere fondamentali nel mondo dei Big Data.... e File system distribuito HadoopEl Sistema de Archivos Distribuido de Hadoop (HDFS) es una parte fundamental del ecosistema Hadoop, diseñado para almacenar grandes volúmenes de datos de manera distribuida. HDFS permite el almacenamiento escalable y la gestión eficiente de datos, dividiendo archivos en bloques que se replican en diferentes nodos. Esto asegura la disponibilidad y la resistencia ante fallos, facilitando el procesamiento de datos masivos en entornos de big data.... (HDFSHDFS, o File system distribuito Hadoop, Si tratta di un'infrastruttura chiave per l'archiviazione di grandi volumi di dati. Progettato per funzionare su hardware comune, HDFS consente la distribuzione dei dati su più nodi, garantire un'elevata disponibilità e tolleranza ai guasti. La sua architettura si basa su un modello master-slave, dove un nodo master gestisce il sistema e i nodi slave memorizzano i dati, facilitare l'elaborazione efficiente delle informazioni..). Con la actualización profunda que, entre otras mejoras, posibilita combinar los resultados de consultas de múltiples tablas de datos, Google pretende explotar la velocità e il analisi in tempo reale proporcionado por Dremel, el producto en el que se basa el diseño de BigQuery.
Análisis de datos en la nube
Concebido como un servicio que facilita consulta rápida en la nube a partir de que el usuario envía datos a Google por medio de la API de BigQuery, su actualización continúa enfocándose en consultas de tipo SQL. En esta versión nueva, se agregan nuevas capacidades junto con la función antes mencionada de unir datos de varias tablas en una sola consulta por medio de una nueva cláusula ADERIRE"ADERIRE" è un'operazione fondamentale nei database che permette di combinare i record di due o più tabelle in base ad una relazione logica tra di esse. Esistono diversi tipi di JOIN, come INNER JOIN, LEFT JOIN e RIGHT JOIN, ognuno con le proprie caratteristiche e usi. Questa tecnica è essenziale per query complesse e informazioni più pertinenti e dettagliate provenienti da più fonti di dati...., sin límite en el tamaño de los datos.
Fino ad ora, BigQuery solo podía manejar grupos de datos de un máximo de 8 MB e, d'altra parte, agregar funcionalidades para importar marcas de tiempo de otros sistemas, datos de fecha y hora de la consulta o agregar columnas a tablas existentes y recibir correos electrónicos automáticos cuando se les da acceso a más conjuntos de datos.
En palabras de Ju-kay Kwek, Product Manager, los cambios se traducen en más velocidad, simplicidad y facilidad de uso:
Attualmente, con BigQuery, las ideas comerciales se pueden obtener de forma directa a través de consultas similares a SQL, con menos esfuerzo y a una velocidad mucho mayor de lo que era factible previamente. Unir tablas de datos de terabytes ha sido tradicionalmente una tarea difícil para los analistas, dado que hasta el momento requería habilidades de desarrollo sofisticadas de MapReduce, hardware potente y mucho tiempo.
Su uso está totalmente desvinculado del marco del elefante amarillo, considerando prescindir de él como una ventaja más del producto. A partire dal Google Comentan que en lugar de instalar Hadoop, utilizar BigQuery ahorrará dinero al pagar solo por cada consulta en lugar del costo de TI de la infraestructura requerida para implementarlo. Con eso y con todo, igualmente, Hadoop se creó en su día a partir de tecnologías como MapReduce y archivo de Google para procesar grandes cantidades de datos a muy bajo costo.
Tecnología Microsoft SQL y Hadoop
Da parte sua, Microsoft ha presentado recientemente sus soluciones Big Data desde la nube a favor del Internet de las cosas. Partiendo de una única plataforma para la administración y el análisis de datos, su uso de Hadoop es parte de una de sus principales innovaciones: un SQL Server 2014 más rápido y su Intelligent Systems Service (IIS) y Analytics Platform System (APS).
La última versión de APS es un producto de bajo costo gracias a la combinación de la tecnología de Hadoop y Microsoft SQL para ofrecer un Data Warehouse que almacena y gestiona datos tradicionales junto con la última generación.
Como nuevo servicio de Azure, se presentó Microsoft Azure Intelligent System Service (ISS), una herramienta diseñada para operar desde cualquier sistema operativo con el fin de aprovechar la información generada desde muy temprano. diferentes fuentes, como máquinas, sensores o dispositivos. Inoltre, CCC se pone a disposición gracias a herramientas como Power BI para Office 365 que posibilitan combinar datos locales y datos de la nube de forma complementaria, con el resultado de una rápida administración de la información.
Articolo correlato: