Categories: Offerte di lavoro

DEVOPS (AWS) rif TTX

requisiti tecnici: Infrastruttura Cloud & DevOps Progettazione e implementazione di infrastrutture scalabili tramite Infrastructure as Code (IaC) (ad esempio, AWS CloudFormation). Implementazione di pipeline CI/CD (GitLab CI/CD - Sceptre) per carichi di lavoro di dati e analisi. Automazione del provisioning dell'ambiente, del monitoraggio e della gestione degli alert. Integrazione con servizi nativi AWS per la sicurezza, il logging e l'ottimizzazione dei costi. Streaming e Orchestrazione dei Dati Comprovata esperienza con: AWS Managed Apache Flink per l'elaborazione di stream in tempo reale. Confluence Kafka per la messaggistica distribuita (livello on-premise ). AWS Managed Apache Airflow (MWAA) per l'orchestrazione DAG-based delle pipeline di dati. Progettazione di architetture di streaming resilienti e scalabili utilizzando servizi AWS come Flink, Glue e Lambda. Data Mesh e Governance Familiarità con i principi del Data Mesh , inclusi la proprietà orientata al dominio, la governance federata e l'approccio al "dato come prodotto" ( data product thinking ). Utilizzo di strumenti come Witboost per supportare la gestione dei metadati, il ciclo di vita del data product e la governance decentralizzata. Implementazione di framework di governance tramite AWS Lake Formation , inclusi il controllo degli accessi granulare ( fine-grained access control ), la catalogazione dei dati e il tracciamento della data lineage . Livello di Archiviazione e Analisi Esperienza con: Amazon Redshift Serverless per carichi di lavoro analitici (non per il livello computazionale). Data Lake basati su S3 utilizzando formati come Parquet e formati di tabella come Iceberg . Gestione delle tabelle S3, comprese le strategie di backup/restore e l'integrazione con motori di interrogazione (Athena). Data Visualization e Business Intelligence Integrazione delle pipeline di dati con Power BI e Tableau per la reportistica aziendale e la creazione di dashboard . Supporto per la modellazione semantica, le strategie di aggiornamento dei dati ( data refresh ) e l'accesso sicuro a dataset governati.

Siamo alla ricerca di 1 risorsa entro la fine dell’anno con inizio attività immediato per attività su cliente in ambito Fintech. È previsto ingaggio iniziale di 12 mesi seniority richiesta : 5/8 anni di esperienza nel ruolo sede di lavoro : Milano Modalità di lavoro : ibrido (2/3 gg a settimana) Inizio ingaggio : ASAP Profilo laureato STEM, con esperienza in ambito IT infrastrutture ed esperto in Cloud-native infrastructure.
Competenze richieste: requisiti tecnici: Infrastruttura Cloud & DevOps Progettazione e implementazione di infrastrutture scalabili tramite Infrastructure as Code (IaC) (ad esempio, AWS CloudFormation). Implementazione di pipeline CI/CD (GitLab CI/CD – Sceptre) per carichi di lavoro di dati e analisi. Automazione del provisioning dell’ambiente, del monitoraggio e della gestione degli alert. Integrazione con servizi nativi AWS per la sicurezza, il logging e l’ottimizzazione dei costi. Streaming e Orchestrazione dei Dati Comprovata esperienza con: AWS Managed Apache Flink per l’elaborazione di stream in tempo reale. Confluence Kafka per la messaggistica distribuita (livello on-premise ). AWS Managed Apache Airflow (MWAA) per l’orchestrazione DAG-based delle pipeline di dati. Progettazione di architetture di streaming resilienti e scalabili utilizzando servizi AWS come Flink, Glue e Lambda. Data Mesh e Governance Familiarità con i principi del Data Mesh , inclusi la proprietà orientata al dominio, la governance federata e l’approccio al “dato come prodotto” ( data product thinking ). Utilizzo di strumenti come Witboost per supportare la gestione dei metadati, il ciclo di vita del data product e la governance decentralizzata. Implementazione di framework di governance tramite AWS Lake Formation , inclusi il controllo degli accessi granulare ( fine-grained access control ), la catalogazione dei dati e il tracciamento della data lineage . Livello di Archiviazione e Analisi Esperienza con: Amazon Redshift Serverless per carichi di lavoro analitici (non per il livello computazionale). Data Lake basati su S3 utilizzando formati come Parquet e formati di tabella come Iceberg . Gestione delle tabelle S3, comprese le strategie di backup/restore e l’integrazione con motori di interrogazione (Athena). Data Visualization e Business Intelligence Integrazione delle pipeline di dati con Power BI e Tableau per la reportistica aziendale e la creazione di dashboard . Supporto per la modellazione semantica, le strategie di aggiornamento dei dati ( data refresh ) e l’accesso sicuro a dataset governati.

Recent Posts

Python Developer Senior

Esperienza Senior (5+ anni) nello sviluppo di applicazioni in Python . Ottima conoscenza ed esperienza pratica con FastAPI . Ottima…

17 ore ago

Tecnico Hardware

Requisiti Esperienza pregressa nel ruolo di tecnico hardware; Conoscenza dei principali componenti hardware delle stampanti multifunzione; Basi di networking (configurazione…

17 ore ago

Sviluppatore Full-Stack

Requisiti Esperienza consolidata nello sviluppo frontend (livello Middle/Senior); Ottima conoscenza di Angular e Next.js; Conoscenza base di Java; Familiarità con…

17 ore ago

Java developer

Hai queste competenze? Java (versioni recenti, preferibilmente =11) e utilizzo di application server moderni come WildFly , con solida conoscenza…

17 ore ago

SQL DEVELOPER

Ottima conoscenza di MS SQL SERVER

17 ore ago

JAVA SPRING BOOT JUNIOR

Java, Microservizi, API REST, Docker, Kubernetes, Swagger, Apache Kafka, Elasticsearch, Spring Boot, Rancher, PostgreSQL.

17 ore ago