Categories: Offerte di lavoro

Senior Data Engineer

Principali responsabilità: Progettare e implementare pipeline di dati affidabili ed efficienti su Vantage, Databricks e Azure Data Services. Integrare e trasformare dati provenienti da diverse fonti, tra cui database relazionali, storage di oggetti cloud, piattaforme di elaborazione di flussi di eventi e servizi web. Sviluppare e mantenere architetture dati scalabili a supporto di iniziative di business intelligence, machine learning e IA agentica. Modellare set di dati complessi utilizzando approcci relazionali e multidimensionali (ad esempio, schemi a stella/fiocco di neve). Lavorare con set di dati geospaziali e strutture dati basate su grafi a supporto di casi d'uso di analisi avanzata. Collaborare con team interfunzionali, inclusi data scientist, analisti e stakeholder aziendali. Garantire la qualità, la governance e la sicurezza dei dati in tutti i processi di ingegneria. Monitorare e ottimizzare le prestazioni di sistemi distribuiti e flussi di lavoro dati. Contribuire all'evoluzione della strategia dati e dell'architettura della piattaforma aziendale. Formazione: Laurea magistrale o dottorato di ricerca in: Informatica Ingegneria Statistica Fisica Matematica . Competenze tecniche richieste: Piattaforme dati: Databricks (Apache Spark), Azure Cloud Data Services (Fabric, Synapse, Functions, ecc.), Teradata Vantage Linguaggi di programmazione: Python (incluso PySpark), SQL, scripting Unix Database relazionali: Teradata Vantage, SQL Server, PostgreSQL, MySQL Elaborazione dati geospaziali: GeoPandas, PostGIS, SQL Geospatial Database a grafo: Neo4j, Cosmos DB con Gremlin Modellazione dati: Modellazione relazionale (3NF), modellazione multidimensionale (schema a stella/fiocco di neve, dimensione a variazione lenta, ecc.) Soft Skills e capacità di leadership: Forte pensiero analitico e capacità di problem solving. Eccellenti capacità comunicative, con la capacità di interagire sia con interlocutori tecnici che non tecnici. Mentalità collaborativa e capacità di lavorare efficacemente in team interfunzionali. Elevato livello di iniziativa, autonomia e capacità di gestire più priorità contemporaneamente. Capacità di adattamento ad ambienti dinamici e tecnologie emergenti. Leadership tecnica e capacità di mentoring. Visione strategica e approccio orientato al business per le soluzioni dati. Qualifiche preferenziali: Certificazioni Azure, Databricks e Teradata. Esperienza con pipeline CI/CD, Git e pratiche DevOps. Familiarità con framework di governance dei dati e conformità al GDPR.

Panoramica: Il nostro cliente, un gruppo multinazionale leader nel settore delle telecomunicazioni e della tecnologia, è alla ricerca di un Senior Data Engineer altamente qualificato da inserire nella sua divisione Big Data. Questo ruolo strategico è parte integrante di un team ad alto impatto, responsabile della progettazione e della gestione di piattaforme dati scalabili a supporto di analisi avanzate in tutte le operazioni globali. Il candidato ideale possiede una solida esperienza pratica nella progettazione, implementazione e gestione di pipeline di dati robuste, basate su paradigmi di integrazione batch, streaming e in tempo reale. Il candidato ideale ha maturato almeno 10 anni di esperienza professionale nel settore IT e almeno 5 anni di comprovata esperienza in progetti di Data Engineering o in team di Data Governance presso grandi aziende, preferibilmente nel settore delle telecomunicazioni o, in alternativa, in quello finanziario. Queste pipeline opereranno in ambienti Data Warehouse, Data Lake e Data Lakehouse, sfruttando tecnologie come Teradata Vantage, Databricks e Azure Cloud Data Services. È fondamentale una solida conoscenza della modellazione di dati relazionali e multidimensionali, unitamente a competenze di programmazione avanzate in Python, PySpark e SQL. È altamente auspicabile un’esperienza nell’elaborazione di dati geospaziali e nei database a grafo. Il candidato ideale dovrebbe inoltre dimostrare una solida conoscenza dei principi fondamentali dell’informatica, tra cui algoritmi e strutture dati, architettura dei computer, sistemi operativi, linguaggi di programmazione, compilatori e interpreti, teoria della computazione, ecc. Questo ruolo offre l’opportunità di contribuire all’evoluzione di un moderno ecosistema di dati, consentendo analisi in tempo reale e processi decisionali basati sui dati su larga scala.
Competenze richieste: Principali responsabilità: Progettare e implementare pipeline di dati affidabili ed efficienti su Vantage, Databricks e Azure Data Services. Integrare e trasformare dati provenienti da diverse fonti, tra cui database relazionali, storage di oggetti cloud, piattaforme di elaborazione di flussi di eventi e servizi web. Sviluppare e mantenere architetture dati scalabili a supporto di iniziative di business intelligence, machine learning e IA agentica. Modellare set di dati complessi utilizzando approcci relazionali e multidimensionali (ad esempio, schemi a stella/fiocco di neve). Lavorare con set di dati geospaziali e strutture dati basate su grafi a supporto di casi d’uso di analisi avanzata. Collaborare con team interfunzionali, inclusi data scientist, analisti e stakeholder aziendali. Garantire la qualità, la governance e la sicurezza dei dati in tutti i processi di ingegneria. Monitorare e ottimizzare le prestazioni di sistemi distribuiti e flussi di lavoro dati. Contribuire all’evoluzione della strategia dati e dell’architettura della piattaforma aziendale. Formazione: Laurea magistrale o dottorato di ricerca in: Informatica Ingegneria Statistica Fisica Matematica . Competenze tecniche richieste: Piattaforme dati: Databricks (Apache Spark), Azure Cloud Data Services (Fabric, Synapse, Functions, ecc.), Teradata Vantage Linguaggi di programmazione: Python (incluso PySpark), SQL, scripting Unix Database relazionali: Teradata Vantage, SQL Server, PostgreSQL, MySQL Elaborazione dati geospaziali: GeoPandas, PostGIS, SQL Geospatial Database a grafo: Neo4j, Cosmos DB con Gremlin Modellazione dati: Modellazione relazionale (3NF), modellazione multidimensionale (schema a stella/fiocco di neve, dimensione a variazione lenta, ecc.) Soft Skills e capacità di leadership: Forte pensiero analitico e capacità di problem solving. Eccellenti capacità comunicative, con la capacità di interagire sia con interlocutori tecnici che non tecnici. Mentalità collaborativa e capacità di lavorare efficacemente in team interfunzionali. Elevato livello di iniziativa, autonomia e capacità di gestire più priorità contemporaneamente. Capacità di adattamento ad ambienti dinamici e tecnologie emergenti. Leadership tecnica e capacità di mentoring. Visione strategica e approccio orientato al business per le soluzioni dati. Qualifiche preferenziali: Certificazioni Azure, Databricks e Teradata. Esperienza con pipeline CI/CD, Git e pratiche DevOps. Familiarità con framework di governance dei dati e conformità al GDPR.

Recent Posts

Tirocini senza costi grazie al Fondo Diamo Lavoro della Diocesi di Milano

Una rete locale che mette in contatto imprese e cittadini in difficoltà offrendo tirocini supportati dalla Caritas Ambrosiana

51 minuti ago

Permesso elettorale e retribuzione: cosa sapere per il referendum 22-23 marzo 2026

Guida pratica sui diritti dei dipendenti nominati al seggio: nomina, certificati, pagamenti statali e obblighi del datore di lavoro

2 ore ago

Workshop a Roma su politiche e istituzioni del mercato del lavoro

Evento a Roma che riunisce economisti del lavoro per analizzare il ruolo delle politiche e delle istituzioni nel mercato del…

4 ore ago

Linee guida 2026 per la valutazione dei crediti contributivi nelle casse di previdenza

Una guida pratica per orientare la valutazione e l'informativa contabile delle Casse di previdenza

11 ore ago

Analista Programmatore Java Esperto

Il personale ricercato dovrà avere inoltre con conoscenza approfondita del RDMS Oracle, Microsoft Sql Server, Java J2EE, Jboss 5, Apache…

12 ore ago