Google anuncia mejoras en BigQuery, a ferramenta de gestão de Big Data lançada pela gigante da Internet em 2010 como un servicio capaz de analizar big data dentro y fuera del ecosistema de Apache Hadoop. Apesar disto, con estas actualizaciones profundas, a Serviço de nuvemo "Serviço de nuvem" refere-se à entrega de recursos de computação pela Internet, Permitindo que os usuários acessem o armazenamento, Processamento e aplicativos sem a necessidade de infraestrutura física local. Este modelo oferece flexibilidade, Escalabilidade e economia de custos, já que as empresas pagam apenas pelo que usam. O que mais, Facilita a colaboração e o acesso aos dados de qualquer lugar, melhorando a eficiência operacional em vários setores.. fortalece su operación independiente y busca atraer usuarios de Hadoop, el líder actual en análisis de Big Data.
Mientras que la segunda generación de Hadoop intenta superar sus debilidades como la falta de velocidad y complejidad, al mismo tiempo de reforzar sus obvias ventajas, Google enfoca el desarrollo de BigQuery hacia la comercialización del servicio como alternativa a ese.
Aún cuando BigQuery es compatible con Hadoop y ambos productos han sido creados directa o indirectamente por Google, sus caminos no parecen estar destinados a seguir cruzando. Si lo hacían hasta el momento, a pesar de esto Google demuestra que quiere separarlos cada vez más para impulsar su vantagem competitiva en todos los frentes, incluida su rivalidad con Kinesis de AWS.
Na realidade, BigQuery busca ser una factible alternativa a la opción open source presentada por MapReduceMapReduce es un modelo de programación diseñado para procesar y generar grandes conjuntos de datos de manera eficiente. Desarrollado por Google, este enfoque Divide el trabajo en tareas más pequeñas, las cuales se distribuyen entre múltiples nodos en un clúster. Cada nodo procesa su parte y luego se combinan los resultados. Este método permite escalar aplicaciones y manejar volúmenes masivos de información, siendo fundamental en el mundo del Big Data.... e Sistema de arquivos distribuídos HadoopEl Sistema de Archivos Distribuido de Hadoop (HDFS) es una parte fundamental del ecosistema Hadoop, diseñado para almacenar grandes volúmenes de datos de manera distribuida. HDFS permite el almacenamiento escalable y la gestión eficiente de datos, dividiendo archivos en bloques que se replican en diferentes nodos. Esto asegura la disponibilidad y la resistencia ante fallos, facilitando el procesamiento de datos masivos en entornos de big data.... (HDFSHDFS, o Sistema de Arquivos Distribuído Hadoop, É uma infraestrutura essencial para armazenar grandes volumes de dados. Projetado para ser executado em hardware comum, O HDFS permite a distribuição de dados em vários nós, garantindo alta disponibilidade e tolerância a falhas. Sua arquitetura é baseada em um modelo mestre-escravo, onde um nó mestre gerencia o sistema e os nós escravos armazenam os dados, facilitando o processamento eficiente de informações..). Con la actualización profunda que, entre otras mejoras, posibilita combinar los resultados de consultas de múltiples tablas de datos, Google pretende explotar la Rapidez e ele análise em tempo real proporcionado por Dremel, el producto en el que se basa el diseño de BigQuery.
Análisis de datos en la nube
Concebido como un servicio que facilita consulta rápida en la nube a partir de que el usuario envía datos a Google por medio de la API de BigQuery, su actualización continúa enfocándose en consultas de tipo SQL. En esta versión nueva, se agregan nuevas capacidades junto con la función antes mencionada de unir datos de varias tablas en una sola consulta por medio de una nueva cláusula JUNTE"JUNTE" é uma operação fundamental em bancos de dados que permite combinar registros de duas ou mais tabelas com base em uma relação lógica entre elas. Existem diferentes tipos de JOIN, como INNER JOIN, JUNÇÃO À ESQUERDA e JUNÇÃO DIREITA, cada um com suas próprias características e usos. Essa técnica é essencial para consultas complexas e informações mais relevantes e detalhadas de várias fontes de dados...., sin límite en el tamaño de los datos.
Até o momento, BigQuery solo podía manejar grupos de datos de un máximo de 8 MB e, por outro lado, agregar funcionalidades para importar marcas de tiempo de otros sistemas, datos de fecha y hora de la consulta o agregar columnas a tablas existentes y recibir correos electrónicos automáticos cuando se les da acceso a más conjuntos de datos.
En palabras de Ju-kay Kwek, Product Manager, los cambios se traducen en más velocidad, simplicidad y facilidad de uso:
Na atualidade, con BigQuery, las ideas comerciales se pueden obtener de forma directa a través de consultas similares a SQL, con menos esfuerzo y a una velocidad mucho mayor de lo que era factible previamente. Unir tablas de datos de terabytes ha sido tradicionalmente una tarea difícil para los analistas, dado que hasta el momento requería habilidades de desarrollo sofisticadas de MapReduce, hardware potente y mucho tiempo.
Su uso está totalmente desvinculado del marco del elefante amarillo, considerando prescindir de él como una ventaja más del producto. A partir de Google Comentan que en lugar de instalar Hadoop, utilizar BigQuery ahorrará dinero al pagar solo por cada consulta en lugar del costo de TI de la infraestructura requerida para implementarlo. Con eso y con todo, igualmente, Hadoop se creó en su día a partir de tecnologías como MapReduce y archivo de Google para procesar grandes cantidades de datos a muy bajo costo.
Tecnología Microsoft SQL y Hadoop
Por sua vez, Microsoft ha presentado recientemente sus soluciones Big Data desde la nube a favor del Internet de las cosas. Partiendo de una única plataforma para la administración y el análisis de datos, su uso de Hadoop es parte de una de sus principales innovaciones: un SQL Server 2014 más rápido y su Intelligent Systems Service (IIS) y Analytics Platform System (APS).
La última versión de APS es un producto de bajo costo gracias a la combinación de la tecnología de Hadoop y Microsoft SQL para ofrecer un Data Warehouse que almacena y gestiona datos tradicionales junto con la última generación.
Como nuevo servicio de Azure, se presentó Microsoft Azure Intelligent System Service (ISS), una herramienta diseñada para operar desde cualquier sistema operativo con el fin de aprovechar la información generada desde muy temprano. diferentes fuentes, como máquinas, sensores o dispositivos. além do que, além do mais, CCC se pone a disposición gracias a herramientas como Power BI para Office 365 que posibilitan combinar datos locales y datos de la nube de forma complementaria, con el resultado de una rápida administración de la información.
Postagem Relacionada: