Data Engineer – Ibrido

I requisiti previsti sono: Esperienza di almeno 3/5 anni nell’ambito; Conoscenza dei linguaggio di programmazione (es. Python, Java, Scala) Conoscenza dell'elaborazione dei dati (Apache Spark, Hadoop o Apache Beam - ETL Tools: PowerCenter, DataStage); Conoscenza di SQL; Conoscenza CI/CD (Yaml pipeline); Conoscenza dell'architettura dei dati; Conoscenza di strumenti di Big Data (Hadoop, Apache Spark e Apache Kafka); Conoscenza di Cloud Computing (Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform, Terraform) Propensione al lavoro in team.

Faboci Srl è una realtà innovativa e dinamica in continuo divenire – MAKE IT EASY. Professionisti del recruiting ICT si sono incontrati con esperti della formazione tecnica; assieme, queste due sfere di competenza hanno dato vita a una risposta univoca alle più attuali ed urgenti esigenze del mercato. Per una Software House fondata nel 2002 ad alto contenuto tecnologico che si compone di due business unit: DEV e DATA, stiamo cercando diverse risorse da inserire: Data Engineer (Cod. Rif. “FBC146”) La risorsa si occuperà: Gestire la qualità e il ciclo di elaborazione dei dati: Ingestion, Processing, Storage, Data Visualization; Definire un processo di data quality; Analizzare i requisiti e i processi aziendali; Gestire, progettare e implementare l’architettura dell’applicativo; Sviluppare le soluzioni; Aggiornare la documentazione; Lavorare in team e gestire le problematiche. Cosa offriamo: Opportunità per l’inserimento diretto a tempo indeterminato; Inserimento in un contesto lavorativo stimolante dinamico e flessibile; Percorso di crescita improntato alle strategie di sviluppo con obiettivi chiari. Orario lavorativo: Full time (40 ore settimanali) Sede di lavoro: Milano Metodo di lavoro: Ibrido.
Competenze richieste: I requisiti previsti sono: Esperienza di almeno 3/5 anni nell’ambito; Conoscenza dei linguaggio di programmazione (es. Python, Java, Scala) Conoscenza dell’elaborazione dei dati (Apache Spark, Hadoop o Apache Beam – ETL Tools: PowerCenter, DataStage); Conoscenza di SQL; Conoscenza CI/CD (Yaml pipeline); Conoscenza dell’architettura dei dati; Conoscenza di strumenti di Big Data (Hadoop, Apache Spark e Apache Kafka); Conoscenza di Cloud Computing (Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform, Terraform) Propensione al lavoro in team.

Scritto da

Data Specialist – BigQuery

Sistemista Linux rif ALV