Panoramica: Il nostro cliente, un gruppo multinazionale leader nel settore delle telecomunicazioni e della tecnologia, è alla ricerca di un Senior Data Engineer altamente qualificato da inserire nella sua divisione Big Data. Questo ruolo strategico è parte integrante di un team ad alto impatto, responsabile della progettazione e della gestione di piattaforme dati scalabili a supporto di analisi avanzate in tutte le operazioni globali. Il candidato ideale possiede una solida esperienza pratica nella progettazione, implementazione e gestione di pipeline di dati robuste, basate su paradigmi di integrazione batch, streaming e in tempo reale. Il candidato ideale ha maturato almeno 10 anni di esperienza professionale nel settore IT e almeno 5 anni di comprovata esperienza in progetti di Data Engineering o in team di Data Governance presso grandi aziende, preferibilmente nel settore delle telecomunicazioni o, in alternativa, in quello finanziario. Queste pipeline opereranno in ambienti Data Warehouse, Data Lake e Data Lakehouse, sfruttando tecnologie come Teradata Vantage, Databricks e Azure Cloud Data Services. È fondamentale una solida conoscenza della modellazione di dati relazionali e multidimensionali, unitamente a competenze di programmazione avanzate in Python, PySpark e SQL. È altamente auspicabile un’esperienza nell’elaborazione di dati geospaziali e nei database a grafo. Il candidato ideale dovrebbe inoltre dimostrare una solida conoscenza dei principi fondamentali dell’informatica, tra cui algoritmi e strutture dati, architettura dei computer, sistemi operativi, linguaggi di programmazione, compilatori e interpreti, teoria della computazione, ecc. Questo ruolo offre l’opportunità di contribuire all’evoluzione di un moderno ecosistema di dati, consentendo analisi in tempo reale e processi decisionali basati sui dati su larga scala.
Competenze richieste: Principali responsabilità: Progettare e implementare pipeline di dati affidabili ed efficienti su Vantage, Databricks e Azure Data Services. Integrare e trasformare dati provenienti da diverse fonti, tra cui database relazionali, storage di oggetti cloud, piattaforme di elaborazione di flussi di eventi e servizi web. Sviluppare e mantenere architetture dati scalabili a supporto di iniziative di business intelligence, machine learning e IA agentica. Modellare set di dati complessi utilizzando approcci relazionali e multidimensionali (ad esempio, schemi a stella/fiocco di neve). Lavorare con set di dati geospaziali e strutture dati basate su grafi a supporto di casi d’uso di analisi avanzata. Collaborare con team interfunzionali, inclusi data scientist, analisti e stakeholder aziendali. Garantire la qualità, la governance e la sicurezza dei dati in tutti i processi di ingegneria. Monitorare e ottimizzare le prestazioni di sistemi distribuiti e flussi di lavoro dati. Contribuire all’evoluzione della strategia dati e dell’architettura della piattaforma aziendale. Formazione: Laurea magistrale o dottorato di ricerca in: Informatica Ingegneria Statistica Fisica Matematica . Competenze tecniche richieste: Piattaforme dati: Databricks (Apache Spark), Azure Cloud Data Services (Fabric, Synapse, Functions, ecc.), Teradata Vantage Linguaggi di programmazione: Python (incluso PySpark), SQL, scripting Unix Database relazionali: Teradata Vantage, SQL Server, PostgreSQL, MySQL Elaborazione dati geospaziali: GeoPandas, PostGIS, SQL Geospatial Database a grafo: Neo4j, Cosmos DB con Gremlin Modellazione dati: Modellazione relazionale (3NF), modellazione multidimensionale (schema a stella/fiocco di neve, dimensione a variazione lenta, ecc.) Soft Skills e capacità di leadership: Forte pensiero analitico e capacità di problem solving. Eccellenti capacità comunicative, con la capacità di interagire sia con interlocutori tecnici che non tecnici. Mentalità collaborativa e capacità di lavorare efficacemente in team interfunzionali. Elevato livello di iniziativa, autonomia e capacità di gestire più priorità contemporaneamente. Capacità di adattamento ad ambienti dinamici e tecnologie emergenti. Leadership tecnica e capacità di mentoring. Visione strategica e approccio orientato al business per le soluzioni dati. Qualifiche preferenziali: Certificazioni Azure, Databricks e Teradata. Esperienza con pipeline CI/CD, Git e pratiche DevOps. Familiarità con framework di governance dei dati e conformità al GDPR.
Senior Data Engineer
Principali responsabilità: Progettare e implementare pipeline di dati affidabili ed efficienti su Vantage, Databricks e Azure Data Services. Integrare e trasformare dati provenienti da diverse fonti, tra cui database relazionali, storage di oggetti cloud, piattaforme di elaborazione di flussi di eventi e servizi web. Sviluppare e mantenere architetture dati scalabili a supporto di iniziative di business intelligence, machine learning e IA agentica. Modellare set di dati complessi utilizzando approcci relazionali e multidimensionali (ad esempio, schemi a stella/fiocco di neve). Lavorare con set di dati geospaziali e strutture dati basate su grafi a supporto di casi d'uso di analisi avanzata. Collaborare con team interfunzionali, inclusi data scientist, analisti e stakeholder aziendali. Garantire la qualità, la governance e la sicurezza dei dati in tutti i processi di ingegneria. Monitorare e ottimizzare le prestazioni di sistemi distribuiti e flussi di lavoro dati. Contribuire all'evoluzione della strategia dati e dell'architettura della piattaforma aziendale. Formazione: Laurea magistrale o dottorato di ricerca in: Informatica Ingegneria Statistica Fisica Matematica . Competenze tecniche richieste: Piattaforme dati: Databricks (Apache Spark), Azure Cloud Data Services (Fabric, Synapse, Functions, ecc.), Teradata Vantage Linguaggi di programmazione: Python (incluso PySpark), SQL, scripting Unix Database relazionali: Teradata Vantage, SQL Server, PostgreSQL, MySQL Elaborazione dati geospaziali: GeoPandas, PostGIS, SQL Geospatial Database a grafo: Neo4j, Cosmos DB con Gremlin Modellazione dati: Modellazione relazionale (3NF), modellazione multidimensionale (schema a stella/fiocco di neve, dimensione a variazione lenta, ecc.) Soft Skills e capacità di leadership: Forte pensiero analitico e capacità di problem solving. Eccellenti capacità comunicative, con la capacità di interagire sia con interlocutori tecnici che non tecnici. Mentalità collaborativa e capacità di lavorare efficacemente in team interfunzionali. Elevato livello di iniziativa, autonomia e capacità di gestire più priorità contemporaneamente. Capacità di adattamento ad ambienti dinamici e tecnologie emergenti. Leadership tecnica e capacità di mentoring. Visione strategica e approccio orientato al business per le soluzioni dati. Qualifiche preferenziali: Certificazioni Azure, Databricks e Teradata. Esperienza con pipeline CI/CD, Git e pratiche DevOps. Familiarità con framework di governance dei dati e conformità al GDPR.