Si intende: Grandi dati

Contenuti

Blog / Tutorial
big-dati-7571612

Introduzione a Hadoop

Hadoop è un ecosistema completo di progetti open source che fornisce un framework per gestire i Big Data. Ecco una semplice spiegazione di Hadoop usando esempi interessanti.

Introduzione a MapReduce

Dopo la serie introduttiva, ecco una semplice spiegazione di MapReduce, un modello di programmazione utilizzato per elaborare grandi set di dati.

Hadoop oltre il tradizionale MapReduce: semplificato

Dopo aver acquisito la conoscenza di base di Hadoop e MapReduce, è ora di passare a concetti avanzati. Questo articolo tratta argomenti come il sistema esteso di hadoop, maiale apache, alveare, impala, squittio, canale d'acqua, hive e altri concetti correlati.

Induci il tuo elefante a manipolare i dati (utilizzando MapReduce)

Questo articolo evidenzia le applicazioni MapReduce con HDFS utilizzando diversi suggerimenti e trucchi utili per eseguire calcoli di big data più velocemente..

Guida completa per principianti a MongoDB

Ecco una guida completa per principianti all'apprendimento di MongoDB. L'intenzione principale di questo articolo è spiegare il processo di lavoro di MongoDB e dei suoi componenti correlati nel modo più semplice possibile..

Ottieni Mongo-ed in NoSQL manager, R & Pitone

Dopo aver letto le basi di MongoDB, questo dovrebbe essere il tuo passo immediato per imparare a usare MongoDB in R, Python e NoSQL. La sua capacità di integrarsi senza sforzo con tecnologie di terze parti rende MongoDB una delle migliori opzioni nel settore dei Big Data..

Impara il cloud computing a R

Questo articolo spiega il concetto di cloud computing in R Programming e R studio utilizzando una metodologia passo passo. Cosa c'è di più, imparerai anche i vantaggi dell'utilizzo di R nel cloud rispetto all'architettura desktop o client tradizionale / server locale.

Grandi dati impressionanti – Archivio GitHub

Ecco un repository github con tutte le risorse necessarie per padroneggiare le tecnologie dei big data. Sembra essere una guida completa alle risorse per i big data, tuttavia, ti assicura di non perderti in questo ricco elenco di risorse e di rimanere concentrato su ciò che vuoi imparare.

Percorso di apprendimento SparkR

Ecco una risorsa per iniziare a imparare sparkR, una libreria R per sfruttare la tecnologia Apache Spark.

Introduzione completa ad Apache Spark

Ecco un articolo completo che copre tutto, dalle basi del calcolo distribuito all'apprendimento dell'uso della tecnologia Apache Spark per enormi guadagni in termini di velocità e scalabilità..

Il meglio dei video di YouTube

Impara l'analisi dei Big Data utilizzando i migliori video di YouTube, TED Talks e altre risorse

Formazione e certificazioni:

  • Università dei Big Data: Big Data University è un sito di formazione online basato su cloud che offre corsi gratuiti ea pagamento tenuti da un gruppo di professionisti ed educatori che hanno una vasta esperienza con Hadoop., Big Data e DB2. Il suo obiettivo è rendere l'educazione ai Big Data disponibile gratuitamente per tutti, in modo che possa portare a conoscenze e scoperte in svariati campi, come la sanità e l'ambiente. La maggior parte dei corsi include lezioni di laboratorio che puoi seguire nel cloud, su immagini VMWare o installando localmente il software richiesto. Completamente gratuito, gli studenti ottengono un certificato superando l'esame finale.
  • Cloudera: Cloudera fornisce una certificazione riconosciuta a livello mondiale per i Big Data. Cloudera certifica veri specialisti che hanno dimostrato le proprie capacità per ottenere risultati di altissimo livello sia negli esami tradizionali che nelle sfide pratiche con set di dati in tempo reale..
  • Coursera: Hai bisogno di capire i big data e come influenzeranno la tua attività?? Questa specializzazione è per te. Acquisisci una comprensione delle intuizioni che i big data possono fornire attraverso l'esperienza pratica con gli strumenti e i sistemi utilizzati da scienziati e ingegneri dei big data. Nessuna precedente esperienza di programmazione richiesta!! Sarai guidato attraverso le basi dell'utilizzo di Hadoop con MapReduce, Scintilla, Maiale e alveare. Seguendo il codice fornito, sperimenterai come può essere eseguita la modellazione predittiva e trarrai vantaggio dall'analisi del grafico per modellare i problemi. Questa specializzazione ti preparerà a porre le domande giuste sui dati, comunicare in modo efficace con i data scientist ed eseguire l'esplorazione di base di set di dati grandi e complessi.

Iscriviti alla nostra Newsletter

Non ti invieremo posta SPAM. Lo odiamo quanto te.