Apache Hadoop es mucho más que un sistema para guardar, procesar y analizar grandes cantidades de datos usando servidores básicos. Es un marco open source que constituye un attrezzo revolucionario en el entorno de Big Data, capaz de hacer alcanzable analisi que antes eran inviables debido a su costo y complejidad.
Nonostante questo, su uso necesita conocimientos especializados, de ahí los recursos autodidactaAl mismo tiempo de los cursos académicos, pueden contribuir a un principiante de Hadoop a comenzar y ampliar sus habilidades comenzando virtualmente desde cero.
Para los usuarios que desean comenzar su aprendizaje sin saltarse pasos, il manuales los elementales son un buen primer paso.
Conocer lo esencial puede resultar interesante siempre que no se tenga algún conocimiento que haga innecesario leer. In realtà, hacerlo probablemente sería una pérdida de tiempo, dada la lista completa de libros en todos los niveles sobre Hadoop en el mercado.
Hadoop per i manichini
Una introducción útil y entretenida para comprender qué es Hadoop, incluida su historia, desafíos tecnológicos y lenguajes de programación es el libro. Hadoop per i manichinipor Robert D. Scheneider (2012), analista, redactor y columnista de Silicon Valley en temas relacionados con las tecnologías Big Data.
En sus 45 páginas de contenido, divididas en cinco capítulos, hallaremos una visión simple de hadoop, fácil de leer, como corresponde a la serie Dummies de la editorial Jooh Wiley & Sons, aún cuando esta vez está patrocinada por IBM. Brevemente, el autor nos presenta su utilidad, desde la tecnología Riduci mappaMapReduce es un modelo de programación diseñado para procesar y generar grandes conjuntos de datos de manera eficiente. Desarrollado por Google, este enfoque Divide el trabajo en tareas más pequeñas, las cuales se distribuyen entre múltiples nodos en un clúster. Cada nodo procesa su parte y luego se combinan los resultados. Este método permite escalar aplicaciones y manejar volúmenes masivos de información, siendo fundamental en el mundo del Big Data.... u otras complementarias a la implementación de Hadoop, cómo aprovechar al máximo la aplicación.
Esta es una breve descripción general que ofrece una descripción general, aún cuando los que ya se iniciaron corren el riesgo de no hallar nada nuevo, ni los recién llegados estarán listos para configurar su propio grappoloUn cluster è un insieme di aziende e organizzazioni interconnesse che operano nello stesso settore o area geografica, e che collaborano per migliorare la loro competitività. Questi raggruppamenti consentono la condivisione delle risorse, Conoscenze e tecnologie, promuovere l'innovazione e la crescita economica. I cluster possono coprire una varietà di settori, Dalla tecnologia all'agricoltura, e sono fondamentali per lo sviluppo regionale e la creazione di posti di lavoro.... l'Hadoop, y algo equivalente se puede decir de un segundo título del mismo nombre. : Hadoop per i manichini, a partire dal Dirk de roos, Paul C. Zikopoulos, Romano B. Meinyk Bruce Brown y Rafael Crosss, todos pesos pesados del sector.
In questa circostanza, sus más de 400 páginas son una introducción más exhaustiva que ayuda a hallar la fórmula más adecuada dentro del complejo ecosistema HadoopEl ecosistema Hadoop es un marco de trabajo de código abierto diseñado para el procesamiento y almacenamiento de grandes volúmenes de datos. Se compone de varios componentes clave, como Hadoop Distributed File System (HDFS) para almacenamiento y MapReduce para procesamiento. Cosa c'è di più, incluye herramientas complementarias como Hive, Pig y HBase, que facilitan la gestión, análisis y consulta de datos. Este ecosistema es fundamental en el ámbito del Big Data y la..., pero igualmente introductoria. In ogni caso, se pone más énfasis en crear y administrar fácilmente aplicaciones Hadoop, así como en evitar problemas comunes o enfocarse en la minería de datos, análisis web y otros desafíos que requieren lidiar con grandes volúmenes de datos.
Da otro paso
Hay innumerables libros de Hadoop en el mercado que profundizan en una gama de temas y abordan el problema a un nivel más profesional. Tra loro, una visita obligada es la conocida y respetada guía de Tom White, Hadoop, la guida definitiva, recomendado como manual de referencia práctico si ya trabaja con Hadoop.
Otra alternativa para ingresar a este tormentoso marco de software para aplicaciones distribuidas son los cursos de capacitación. Más allá de los realizados en Cloudera, IBM o MAPR, esistere recursos gratis que puede ayudar a comenzar o reciclar. Il BigDataUniversity.com emite certificados de cumplimiento e inclusive está habilitada una descarga gratuita de libros electrónicos Hadoop per i manichini Scheneider para usuarios registrados.
Articolo correlato: