Blog

  • +
    AWS Transformation Day. Il racconto dell’evento
  • +
    Dbvisit Standby Snapshot Option: un alleato in più nella gestione del tuo database
  • +
    Miriade al Transformation Day di AWS
  • +
    Workshop: Hands-on Oracle Database Appliance | Thiene – 26 novembre
  • +
    Voucher per l’Innovation Manager
  • +
    Miriade a Università Aperta IES Padova
  • +
    DevOps in azienda, come, dove, quando e perché?
  • +
    AWSome Day Padova, il racconto dell’evento
  • cloud digital transformation social
    +
    Il cloud al centro della digital transformation
  • +
    Webinar ODA e Dbvisit Standby: scopri come semplificare la gestione del tuo database | 26 settembre
  • SOPHOS EVOLVE
    +
    Il futuro della cybersecurity ti aspetta a Verona e Roma con Sophos Evolve
  • Google Hangouts Meet
    +
    È il momento di ridisegnare la tua sala riunioni con gli hardware Google

Corso Hadoop Developer

Obiettivi del corso

Il corso illustra le tecniche di development per Hadoop. Per poter seguire le lezioni i partecipanti dovranno avere a disposizione 4 nodi (virtuali o su cloud – consigliato AWS), oltre ad essere già in possesso di una formazione base su Hadoop.

Il percorso, pensato per un massimo di 8 partecipanti e rivolto esclusivamente a personale interno, si svolge presso la sede dell’azienda cliente.

Durata

4 giornate da 8 ore ciascuna

Temi affrontati

Prima giornata

Materiali corso e installazione strumenti

  • Hadoop Ecosystem (Hadoop, HDFS, YARN)

  • Using HDFS

  • Cos’è MapReduce

  • Running a MapReduce Job

  • Writing a MapReduce Program in Python

Seconda giornata

Writing a MapReduce Streaming Program in Python

  • Importing Data With Sqoop

  • Manipulating Data With Hive

  • Running an Oozie Workflow

  • Creating an Inverted Index – Solr

  • Hue Dashboard on Index

Terza giornata

Spark

  • Introduzione

  • Shell: pyspark & scala shell
  • Storage interface
  • Spark SQL
  • Spark on Yarn cluster

  • RDD: theory and hands on
  • RDD: key – value
  • RDD: key – value
  • Spark Streaming

Quarta giornata

DataFrames and Apache Spark SQL

  • Integrating Apache Flume and Apache Kafka

  • Capturing Data with Apache Flume

  • Message Processing with Apache Kafka

  • Calculating Word Co-Occurence

Ready to learn?

Categories:
  Advanced Analytics, All
this post was shared 0 times
 000