Blogs / Tutoriais
Introdução ao Hadoop
Hadoop é um ecossistema completo de projetos de código aberto que fornece uma estrutura para lidar com Big Data. Aqui está uma explicação simples do Hadoop usando exemplos interessantes.
Introducción a MapReduceMapReduce es un modelo de programación diseñado para procesar y generar grandes conjuntos de datos de manera eficiente. Desarrollado por Google, este enfoque Divide el trabajo en tareas más pequeñas, las cuales se distribuyen entre múltiples nodos en un clúster. Cada nodo procesa su parte y luego se combinan los resultados. Este método permite escalar aplicaciones y manejar volúmenes masivos de información, siendo fundamental en el mundo del Big Data....
Após a série introdutória, aqui está uma explicação simples de MapReduce, um modelo de programação usado para processar grandes conjuntos de dados.
Hadoop além do MapReduce tradicional: simplificado
Depois de adquirir conhecimentos básicos de Hadoop e MapReduce, é hora de passar para conceitos avançados. Este artigo cobre tópicos como o sistema estendido hadoop, apache porcoEl cerdo, un mamífero domesticado de la familia Suidae, es conocido por su versatilidad en la agricultura y la producción de alimentos. Originario de Asia, su cría se ha extendido por todo el mundo. Los cerdos son omnívoros y poseen una alta capacidad de adaptación a diversos hábitats. O que mais, juegan un papel importante en la economía, proporcionando carne, cuero y otros productos derivados. Su inteligencia y comportamiento social también son..., colmeiaHive é uma plataforma de mídia social descentralizada que permite que seus usuários compartilhem conteúdo e se conectem com outras pessoas sem a intervenção de uma autoridade central. Usa a tecnologia blockchain para garantir a segurança e a propriedade dos dados. Ao contrário de outras redes sociais, O Hive permite que os usuários monetizem seu conteúdo por meio de recompensas criptográficas, que incentiva a criação e a troca ativa de informações ...., impala, sqoopSqoop es una herramienta de código abierto diseñada para facilitar la transferencia de datos entre bases de datos relacionales y el ecosistema Hadoop. Permite la importación de datos desde sistemas como MySQL, PostgreSQL y Oracle a HDFS, así como la exportación de datos desde Hadoop a estas bases de datos. Sqoop optimiza el proceso mediante la paralelización de las operaciones, lo que lo convierte en una solución eficiente para el..., calhaFlume es un software de código abierto diseñado para la recolección y transporte de datos. Utiliza un enfoque basado en flujos, lo que permite mover datos de diversas fuentes hacia sistemas de almacenamiento como Hadoop. Su arquitectura modular y escalable facilita la integración con múltiples orígenes de datos, lo que lo convierte en una herramienta valiosa para el procesamiento y análisis de grandes volúmenes de información en tiempo real...., colmeia e outros conceitos relacionados.
Engane seu elefante fazendo-o manipular dados (usando MapReduce)
Este artículo destaca las aplicaciones de MapReduce con HDFSHDFS, o Sistema de Arquivos Distribuído Hadoop, É uma infraestrutura essencial para armazenar grandes volumes de dados. Projetado para ser executado em hardware comum, O HDFS permite a distribuição de dados em vários nós, garantindo alta disponibilidade e tolerância a falhas. Sua arquitetura é baseada em um modelo mestre-escravo, onde um nó mestre gerencia o sistema e os nós escravos armazenam os dados, facilitando o processamento eficiente de informações.. utilizando varios consejos y trucos útiles para realizar cálculos de big data más rápidamente.
Guia do iniciante completo para MongoDB
Aqui está um guia completo para iniciantes para aprender MongoDB. A principal intenção deste artigo é explicar o processo de trabalho do MongoDB e seus componentes relacionados da maneira mais simples possível..
Obtenha o Mongo-ed no gerenciador NoSQL, R & Pitão
Depois de ler sobre os fundamentos do MongoDB, esta deve ser sua etapa imediata para aprender a usar o MongoDB em R, Python e NoSQL. Sua capacidade de integração fácil com tecnologias de terceiros torna o MongoDB uma das melhores opções na indústria de Big Data..
Aprenda computação em nuvem em R
Este artigo explica o conceito de computação em nuvem no R Programming e R Studio usando uma metodologia passo a passo. O que mais, você também aprenderá sobre os benefícios de usar R na nuvem em comparação ao desktop tradicional ou arquitetura de cliente / servidor local.
Big Data Impresionante – Repositório GitHub
Aqui está um repositório github com todos os recursos necessários para dominar as tecnologias de big data. Parece ser um guia de recursos abrangente para big data, porém, garante que você não se perca nesta rica lista de recursos e que você permaneça focado no que deseja aprender.
Caminho de aprendizagem SparkR
Aqui está um recurso para começar a aprender SparkR, una biblioteca de R para aprovechar la tecnología Apache SparkO Apache Spark é um mecanismo de processamento de dados de código aberto que permite a análise de grandes volumes de informações de forma rápida e eficiente. Seu design é baseado na memória, que otimiza o desempenho em comparação com outras ferramentas de processamento em lote. O Spark é amplamente utilizado em aplicativos de big data, Aprendizado de máquina e análise em tempo real, graças à sua facilidade de uso e....
Introdução abrangente ao Apache Spark
Aqui está um artigo abrangente cobrindo tudo, desde noções básicas de computação distribuída até aprender como usar a tecnologia Apache Spark para ganhos massivos em termos de velocidade e escalabilidade..
O melhor dos vídeos do YouTube
Aprenda Big Data Analytics usando os melhores vídeos do YouTube, Palestras TED e outros recursos
Treinamento e certificações:
- Big Data University: Big Data University é um site educacional online baseado em nuvem que oferece cursos gratuitos e pagos ministrados por um grupo de profissionais e educadores com vasta experiência com Hadoop., Big Data y DB2. Seu objetivo é tornar a educação em Big Data disponível gratuitamente para todos, para que possa levar ao conhecimento e descobertas em campos variados, como saúde e meio ambiente. A maioria dos cursos inclui aulas de laboratório que você pode fazer na nuvem, em imagens VMWare ou instalando localmente o software necessário. Totalmente grátis, os alunos obtêm um certificado ao passar no exame final.
- Cloudera: Cloudera fornece uma certificação mundialmente reconhecida para Big Data. A Cloudera certifica verdadeiros especialistas que demonstraram suas habilidades para um desempenho do mais alto nível em exames tradicionais e desafios práticos com conjuntos de dados ao vivo..
- Coursera: Você precisa entender o big data e como isso afetará seus negócios?? Esta especialização é para você. Compreenda os insights que o big data pode fornecer por meio da experiência prática com as ferramentas e sistemas usados por cientistas e engenheiros de big data. Nenhuma experiência anterior de programação necessária!! Você será guiado pelos fundamentos do uso do Hadoop com MapReduce, Fagulha, Porco e Colmeia. Seguindo o código fornecido, você experimentará como a modelagem preditiva pode ser feita e aproveitará a vantagem da análise de gráfico para modelar problemas. Esta especialização irá prepará-lo para fazer as perguntas certas sobre os dados, comunicar-se efetivamente com cientistas de dados e realizar a exploração básica de conjuntos de dados grandes e complexos.