.. Patenti: B Mezzi di trasporto: Auto Disponibilità oraria: Totale disponibilità I candidati, nel rispetto del D.lgs. 198/2006, D.lgs 215/2003 e D.lgs 216/2003, sono invitati a leggere l'informativa sulla privacy consultabile sotto il form di richiesta dati della pagina di candidatura (Regolamento UE .. altro
La risorsa sarà inserita all’interno del progetto di Data Platform con l’obiettivo di sviluppare i processi di alimentazione tramite Kafka e integrare tutti i sistemi di manufacturing presenti nei plant. Si occuperà di analisi e implementazione di soluzioni big data specialmente in ambiente cloud. In particolare i progetti riguarderanno tematiche di digital transformation a partire da soluzioni tradizionali e legacy, verso soluzioni di gestione e analisi del dato in linea con una data strategy data-driven. Collaborerà con il team di Milano alla condivisione dei requisiti, progettazione e modellazione delle loading chain. Si occuperà inoltre della stesura della documentazione degli sviluppi, agli integration test e deploy in ambiente AWS e gestirà l’handover della soluzione implementata al team di supporto per la governance della soluzione.AttivitàSono richieste:Laurea in discipline tecniche/scientifiche;Conoscenza approfondita di S3, Aurora , RDS e postgres per configurazione e gestione database nei processi di loading dati;Esperienza programmazione con Phyton, Spark, Node.js, Scala;Esperienza in ambienti cloud preferibilmente AWS(msk, Kafka);Esperienza di progettazione, sviluppo, gestione di pipeline scalabili (ETL);Capacità analitiche per la gestione di grandi quantità di dati (Big Data);Conoscenza delle tematiche di data integration e data streaming e di almeno un paio di strumenti/framework (Spark, Apache Beam, Kafka, databricks, ecc..) con esperienza di almeno 1 anno nell’utilizzo di questi tool;Conoscenza delle architetture e tecnologie big data più diffuse (Hadoop, MapReduce, HBase, Oozie, Hive, Flume, MongoDB, Cassandra, Pig, ecc.).Inoltre:Buona conoscenza della lingua inglese;Buona propensione all'analisi, al problem solving e al teamworking;Dinamismo e proattività.Sono un plus:Conoscenza linguaggi di scripting Web, Design e UX;Certificazioni tecniche AWS;Esperienza in ambito simile di almeno 2 anni.Ruolo da ricoprire: Sviluppo pipeline di caricamento sistemi di fabbrica in data platform;Performance tuning;Scrittura di codice PL/SQL;Scrittura e manutenzione della documentazione tecnica a supporto delle implementazioni ETL;Manutenzione ed interventi su flussi ETL esistenti;Interfaccia con i settori del Business per la raccolta dei requisiti;Predisposizione di sistemi di alert, monitoring tramite Cloudwatch, Phyton.Sede: la posizione sarà basata presso il nuovo ufficio Pirelli di Bari (BA), Italia.