Categories: Offerte di lavoro

Senior Data Engineer

Principali responsabilità: Progettare e implementare pipeline di dati affidabili ed efficienti su Vantage, Databricks e Azure Data Services. Integrare e trasformare dati provenienti da diverse fonti, tra cui database relazionali, storage di oggetti cloud, piattaforme di elaborazione di flussi di eventi e servizi web. Sviluppare e mantenere architetture dati scalabili a supporto di iniziative di business intelligence, machine learning e IA agentica. Modellare set di dati complessi utilizzando approcci relazionali e multidimensionali (ad esempio, schemi a stella/fiocco di neve). Lavorare con set di dati geospaziali e strutture dati basate su grafi a supporto di casi d'uso di analisi avanzata. Collaborare con team interfunzionali, inclusi data scientist, analisti e stakeholder aziendali. Garantire la qualità, la governance e la sicurezza dei dati in tutti i processi di ingegneria. Monitorare e ottimizzare le prestazioni di sistemi distribuiti e flussi di lavoro dati. Contribuire all'evoluzione della strategia dati e dell'architettura della piattaforma aziendale. Formazione: Laurea magistrale o dottorato di ricerca in: Informatica Ingegneria Statistica Fisica Matematica . Competenze tecniche richieste: Piattaforme dati: Databricks (Apache Spark), Azure Cloud Data Services (Fabric, Synapse, Functions, ecc.), Teradata Vantage Linguaggi di programmazione: Python (incluso PySpark), SQL, scripting Unix Database relazionali: Teradata Vantage, SQL Server, PostgreSQL, MySQL Elaborazione dati geospaziali: GeoPandas, PostGIS, SQL Geospatial Database a grafo: Neo4j, Cosmos DB con Gremlin Modellazione dati: Modellazione relazionale (3NF), modellazione multidimensionale (schema a stella/fiocco di neve, dimensione a variazione lenta, ecc.) Soft Skills e capacità di leadership: Forte pensiero analitico e capacità di problem solving. Eccellenti capacità comunicative, con la capacità di interagire sia con interlocutori tecnici che non tecnici. Mentalità collaborativa e capacità di lavorare efficacemente in team interfunzionali. Elevato livello di iniziativa, autonomia e capacità di gestire più priorità contemporaneamente. Capacità di adattamento ad ambienti dinamici e tecnologie emergenti. Leadership tecnica e capacità di mentoring. Visione strategica e approccio orientato al business per le soluzioni dati. Qualifiche preferenziali: Certificazioni Azure, Databricks e Teradata. Esperienza con pipeline CI/CD, Git e pratiche DevOps. Familiarità con framework di governance dei dati e conformità al GDPR.

Panoramica: Il nostro cliente, un gruppo multinazionale leader nel settore delle telecomunicazioni e della tecnologia, è alla ricerca di un Senior Data Engineer altamente qualificato da inserire nella sua divisione Big Data. Questo ruolo strategico è parte integrante di un team ad alto impatto, responsabile della progettazione e della gestione di piattaforme dati scalabili a supporto di analisi avanzate in tutte le operazioni globali. Il candidato ideale possiede una solida esperienza pratica nella progettazione, implementazione e gestione di pipeline di dati robuste, basate su paradigmi di integrazione batch, streaming e in tempo reale. Il candidato ideale ha maturato almeno 10 anni di esperienza professionale nel settore IT e almeno 5 anni di comprovata esperienza in progetti di Data Engineering o in team di Data Governance presso grandi aziende, preferibilmente nel settore delle telecomunicazioni o, in alternativa, in quello finanziario. Queste pipeline opereranno in ambienti Data Warehouse, Data Lake e Data Lakehouse, sfruttando tecnologie come Teradata Vantage, Databricks e Azure Cloud Data Services. È fondamentale una solida conoscenza della modellazione di dati relazionali e multidimensionali, unitamente a competenze di programmazione avanzate in Python, PySpark e SQL. È altamente auspicabile un’esperienza nell’elaborazione di dati geospaziali e nei database a grafo. Il candidato ideale dovrebbe inoltre dimostrare una solida conoscenza dei principi fondamentali dell’informatica, tra cui algoritmi e strutture dati, architettura dei computer, sistemi operativi, linguaggi di programmazione, compilatori e interpreti, teoria della computazione, ecc. Questo ruolo offre l’opportunità di contribuire all’evoluzione di un moderno ecosistema di dati, consentendo analisi in tempo reale e processi decisionali basati sui dati su larga scala.
Competenze richieste: Principali responsabilità: Progettare e implementare pipeline di dati affidabili ed efficienti su Vantage, Databricks e Azure Data Services. Integrare e trasformare dati provenienti da diverse fonti, tra cui database relazionali, storage di oggetti cloud, piattaforme di elaborazione di flussi di eventi e servizi web. Sviluppare e mantenere architetture dati scalabili a supporto di iniziative di business intelligence, machine learning e IA agentica. Modellare set di dati complessi utilizzando approcci relazionali e multidimensionali (ad esempio, schemi a stella/fiocco di neve). Lavorare con set di dati geospaziali e strutture dati basate su grafi a supporto di casi d’uso di analisi avanzata. Collaborare con team interfunzionali, inclusi data scientist, analisti e stakeholder aziendali. Garantire la qualità, la governance e la sicurezza dei dati in tutti i processi di ingegneria. Monitorare e ottimizzare le prestazioni di sistemi distribuiti e flussi di lavoro dati. Contribuire all’evoluzione della strategia dati e dell’architettura della piattaforma aziendale. Formazione: Laurea magistrale o dottorato di ricerca in: Informatica Ingegneria Statistica Fisica Matematica . Competenze tecniche richieste: Piattaforme dati: Databricks (Apache Spark), Azure Cloud Data Services (Fabric, Synapse, Functions, ecc.), Teradata Vantage Linguaggi di programmazione: Python (incluso PySpark), SQL, scripting Unix Database relazionali: Teradata Vantage, SQL Server, PostgreSQL, MySQL Elaborazione dati geospaziali: GeoPandas, PostGIS, SQL Geospatial Database a grafo: Neo4j, Cosmos DB con Gremlin Modellazione dati: Modellazione relazionale (3NF), modellazione multidimensionale (schema a stella/fiocco di neve, dimensione a variazione lenta, ecc.) Soft Skills e capacità di leadership: Forte pensiero analitico e capacità di problem solving. Eccellenti capacità comunicative, con la capacità di interagire sia con interlocutori tecnici che non tecnici. Mentalità collaborativa e capacità di lavorare efficacemente in team interfunzionali. Elevato livello di iniziativa, autonomia e capacità di gestire più priorità contemporaneamente. Capacità di adattamento ad ambienti dinamici e tecnologie emergenti. Leadership tecnica e capacità di mentoring. Visione strategica e approccio orientato al business per le soluzioni dati. Qualifiche preferenziali: Certificazioni Azure, Databricks e Teradata. Esperienza con pipeline CI/CD, Git e pratiche DevOps. Familiarità con framework di governance dei dati e conformità al GDPR.

Recent Posts

Che cos’è oggi l’housekeeping in albergo

In ambito alberghiero, housekeeping non significa soltanto pulizia, ma un insieme strutturato di processi che tutelano l’ordine, l’igiene, la sicurezza e l’immagine…

1 giorno ago

Full Stack .NET

- .NET Core (6+) - Angular (2+) - DB Sql Server - Azure (nice to have) - Buona conoscenza della…

1 mese ago

Python Developer Data & Cloud (Azure)

Almeno 5+ esperienza Python esperienza con framework MVC (es. Django) Buona conoscenza di Git e version control Esperienza o forte…

1 mese ago

SAP CO Analyst

Esperienza di almeno 2-3 anni sul modulo SAP CO Buona conoscenza della lingua inglese Conoscenza del modulo SAP PS (nice…

1 mese ago

PL-SQL Developer

PL-SQL Oracle SQL

1 mese ago

DBA Oracle

Almeno 5 anni di esperienza come Oracle DBA Esperienza su database Oracle di grandi dimensioni Data Pump Oracle GoldenGate Conoscenza…

1 mese ago