Blog

  • +
    AWSome Day Padova, il racconto dell’evento
  • cloud digital transformation social
    +
    Il cloud al centro della digital transformation
  • +
    Webinar ODA e Dbvisit Standby: scopri come semplificare la gestione del tuo database | 26 settembre
  • SOPHOS EVOLVE
    +
    Il futuro della cybersecurity ti aspetta a Verona e Roma con Sophos Evolve
  • Google Hangouts Meet
    +
    È il momento di ridisegnare la tua sala riunioni con gli hardware Google
  • +
    Arcadia Data accelera gli insight di Cloudera
  • +
    Sicurezza IT: come migliorare la fiducia in azienda
  • +
    CORSO FAST TRACK ADMIN: UPGRADE ALLA VERSIONE G SUITE BUSINESS
  • +
    AWSome Day Padova 2019
  • +
    Webinar ODA e Dbvisit Standby: una soluzione completa per Oracle SE2 | 26 settembre
  • +
    Data science: esempi di vita quotidiana
  • +
    Il futuro del database è in cloud

Corso Hadoop Developer

Obiettivi del corso

Il corso illustra le tecniche di development per Hadoop. Per poter seguire le lezioni i partecipanti dovranno avere a disposizione 4 nodi (virtuali o su cloud – consigliato AWS), oltre ad essere già in possesso di una formazione base su Hadoop.

Il percorso, pensato per un massimo di 8 partecipanti e rivolto esclusivamente a personale interno, si svolge presso la sede dell’azienda cliente.

Durata

4 giornate da 8 ore ciascuna

Temi affrontati

Prima giornata

Materiali corso e installazione strumenti

  • Hadoop Ecosystem (Hadoop, HDFS, YARN)

  • Using HDFS

  • Cos’è MapReduce

  • Running a MapReduce Job

  • Writing a MapReduce Program in Python

Seconda giornata

Writing a MapReduce Streaming Program in Python

  • Importing Data With Sqoop

  • Manipulating Data With Hive

  • Running an Oozie Workflow

  • Creating an Inverted Index – Solr

  • Hue Dashboard on Index

Terza giornata

Spark

  • Introduzione

  • Shell: pyspark & scala shell
  • Storage interface
  • Spark SQL
  • Spark on Yarn cluster

  • RDD: theory and hands on
  • RDD: key – value
  • RDD: key – value
  • Spark Streaming

Quarta giornata

DataFrames and Apache Spark SQL

  • Integrating Apache Flume and Apache Kafka

  • Capturing Data with Apache Flume

  • Message Processing with Apache Kafka

  • Calculating Word Co-Occurence

Ready to learn?

Categories:
  Advanced Analytics, All
this post was shared 0 times
 000