Siamo alla ricerca di 1 risorsa entro la fine dell’anno con inizio attività immediato per attività su cliente in ambito Fintech. È previsto ingaggio iniziale di 12 mesi seniority richiesta : 5/8 anni di esperienza nel ruolo sede di lavoro : Milano Modalità di lavoro : ibrido (2/3 gg a settimana) Inizio ingaggio : ASAP Profilo laureato STEM, con esperienza in ambito IT infrastrutture ed esperto in Cloud-native infrastructure.
Competenze richieste: requisiti tecnici: Infrastruttura Cloud & DevOps Progettazione e implementazione di infrastrutture scalabili tramite Infrastructure as Code (IaC) (ad esempio, AWS CloudFormation). Implementazione di pipeline CI/CD (GitLab CI/CD – Sceptre) per carichi di lavoro di dati e analisi. Automazione del provisioning dell’ambiente, del monitoraggio e della gestione degli alert. Integrazione con servizi nativi AWS per la sicurezza, il logging e l’ottimizzazione dei costi. Streaming e Orchestrazione dei Dati Comprovata esperienza con: AWS Managed Apache Flink per l’elaborazione di stream in tempo reale. Confluence Kafka per la messaggistica distribuita (livello on-premise ). AWS Managed Apache Airflow (MWAA) per l’orchestrazione DAG-based delle pipeline di dati. Progettazione di architetture di streaming resilienti e scalabili utilizzando servizi AWS come Flink, Glue e Lambda. Data Mesh e Governance Familiarità con i principi del Data Mesh , inclusi la proprietà orientata al dominio, la governance federata e l’approccio al “dato come prodotto” ( data product thinking ). Utilizzo di strumenti come Witboost per supportare la gestione dei metadati, il ciclo di vita del data product e la governance decentralizzata. Implementazione di framework di governance tramite AWS Lake Formation , inclusi il controllo degli accessi granulare ( fine-grained access control ), la catalogazione dei dati e il tracciamento della data lineage . Livello di Archiviazione e Analisi Esperienza con: Amazon Redshift Serverless per carichi di lavoro analitici (non per il livello computazionale). Data Lake basati su S3 utilizzando formati come Parquet e formati di tabella come Iceberg . Gestione delle tabelle S3, comprese le strategie di backup/restore e l’integrazione con motori di interrogazione (Athena). Data Visualization e Business Intelligence Integrazione delle pipeline di dati con Power BI e Tableau per la reportistica aziendale e la creazione di dashboard . Supporto per la modellazione semantica, le strategie di aggiornamento dei dati ( data refresh ) e l’accesso sicuro a dataset governati.
DEVOPS (AWS) rif TTX
requisiti tecnici: Infrastruttura Cloud & DevOps Progettazione e implementazione di infrastrutture scalabili tramite Infrastructure as Code (IaC) (ad esempio, AWS CloudFormation). Implementazione di pipeline CI/CD (GitLab CI/CD - Sceptre) per carichi di lavoro di dati e analisi. Automazione del provisioning dell'ambiente, del monitoraggio e della gestione degli alert. Integrazione con servizi nativi AWS per la sicurezza, il logging e l'ottimizzazione dei costi. Streaming e Orchestrazione dei Dati Comprovata esperienza con: AWS Managed Apache Flink per l'elaborazione di stream in tempo reale. Confluence Kafka per la messaggistica distribuita (livello on-premise ). AWS Managed Apache Airflow (MWAA) per l'orchestrazione DAG-based delle pipeline di dati. Progettazione di architetture di streaming resilienti e scalabili utilizzando servizi AWS come Flink, Glue e Lambda. Data Mesh e Governance Familiarità con i principi del Data Mesh , inclusi la proprietà orientata al dominio, la governance federata e l'approccio al "dato come prodotto" ( data product thinking ). Utilizzo di strumenti come Witboost per supportare la gestione dei metadati, il ciclo di vita del data product e la governance decentralizzata. Implementazione di framework di governance tramite AWS Lake Formation , inclusi il controllo degli accessi granulare ( fine-grained access control ), la catalogazione dei dati e il tracciamento della data lineage . Livello di Archiviazione e Analisi Esperienza con: Amazon Redshift Serverless per carichi di lavoro analitici (non per il livello computazionale). Data Lake basati su S3 utilizzando formati come Parquet e formati di tabella come Iceberg . Gestione delle tabelle S3, comprese le strategie di backup/restore e l'integrazione con motori di interrogazione (Athena). Data Visualization e Business Intelligence Integrazione delle pipeline di dati con Power BI e Tableau per la reportistica aziendale e la creazione di dashboard . Supporto per la modellazione semantica, le strategie di aggiornamento dei dati ( data refresh ) e l'accesso sicuro a dataset governati.