I requisiti previsti sono: Esperienza di almeno 3/5 anni nell’ambito; Conoscenza dei linguaggio di programmazione (es. Python, Java, Scala) Conoscenza dell'elaborazione dei dati (Apache Spark, Hadoop o Apache Beam - ETL Tools: PowerCenter, DataStage); Conoscenza di SQL; Conoscenza CI/CD (Yaml pipeline); Conoscenza dell'architettura dei dati; Conoscenza di strumenti di Big Data (Hadoop, Apache Spark e Apache Kafka); Conoscenza di Cloud Computing (Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform, Terraform) Propensione al lavoro in team.
Faboci Srl è una realtà innovativa e dinamica in continuo divenire – MAKE IT EASY. Professionisti del recruiting ICT si sono incontrati con esperti della formazione tecnica; assieme, queste due sfere di competenza hanno dato vita a una risposta univoca alle più attuali ed urgenti esigenze del mercato. Per una Software House fondata nel 2002 ad alto contenuto tecnologico che si compone di due business unit: DEV e DATA, stiamo cercando diverse risorse da inserire: Data Engineer (Cod. Rif. “FBC146”) La risorsa si occuperà: Gestire la qualità e il ciclo di elaborazione dei dati: Ingestion, Processing, Storage, Data Visualization; Definire un processo di data quality; Analizzare i requisiti e i processi aziendali; Gestire, progettare e implementare l’architettura dell’applicativo; Sviluppare le soluzioni; Aggiornare la documentazione; Lavorare in team e gestire le problematiche. Cosa offriamo: Opportunità per l’inserimento diretto a tempo indeterminato; Inserimento in un contesto lavorativo stimolante dinamico e flessibile; Percorso di crescita improntato alle strategie di sviluppo con obiettivi chiari. Orario lavorativo: Full time (40 ore settimanali) Sede di lavoro: Milano Metodo di lavoro: Ibrido.
Competenze richieste: I requisiti previsti sono: Esperienza di almeno 3/5 anni nell’ambito; Conoscenza dei linguaggio di programmazione (es. Python, Java, Scala) Conoscenza dell’elaborazione dei dati (Apache Spark, Hadoop o Apache Beam – ETL Tools: PowerCenter, DataStage); Conoscenza di SQL; Conoscenza CI/CD (Yaml pipeline); Conoscenza dell’architettura dei dati; Conoscenza di strumenti di Big Data (Hadoop, Apache Spark e Apache Kafka); Conoscenza di Cloud Computing (Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform, Terraform) Propensione al lavoro in team.
(Adnkronos) - Un dialogo tra rappresentanti dell’industria audiovisiva italiana e statunitense sulle opportunità di collaborazione in termini di co-produzione, servizi…
(Adnkronos) - Trattamenti rivoluzionari nel campo della medicina veterinaria stanno cambiando la vita di molti cani affetti da importanti e…
(Adnkronos) - Valve torna a mettere le mani nell’hardware casalingo e lo fa con un trittico che traccia una direzione…
(Adnkronos) - Il 18-20 novembre torna a Milano il Forum hr 'People & culture', il principale appuntamento italiano dedicato al…
Il Ministero del Lavoro comunica una riduzione sostanziale dei contributi nel settore edile per l'anno 2025.
(Adnkronos) - Si è tenuta presso la Sala Convegni del Consiglio nazionale delle ricerche (Cnr), la cerimonia di premiazione della…