Responsabilità principali: Progettare, sviluppare e mantenere pipeline di dati efficienti per la raccolta, elaborazione e distribuzione dei dati aziendali. Implementare e ottimizzare processi ETL per la migrazione e l’integrazione dei dati tra sistemi eterogenei. Monitorare la qualità dei dati, assicurandosi che siano accurati, completi e accessibili in modo affidabile. Collaborare con altri team per comprendere le necessità di dati e tradurle in soluzioni scalabili e automatizzate. Utilizzare Databricks per la gestione e l’elaborazione dei dati, sfruttando le sue capacità avanzate per l’analisi e l’integrazione dei dati. Requisiti: Laurea in Informatica, Ingegneria Informatica, Matematica o un campo correlato. Esperienza comprovata come Data Engineer o in ruoli simili. Ottima conoscenza di Databricks e delle sue funzionalità. Competenze solide nei processi ETL e nell’integrazione di dati tra sistemi. Familiarità con i linguaggi di programmazione (Python, SQL). Buone capacità di risoluzione dei problemi e attenzione alla qualità dei dati. Esperienza con strumenti di gestione e orchestrazione delle pipeline dati (Apache Airflow, Talend o simili) è un plus.