Data Engineer

Responsabilità principali: Sviluppo di pipeline dati: Progettare, creare e mantenere pipeline per estrarre, trasformare e caricare (ETL) dati da diverse fonti. Gestione e trasformazione dati: Analizzare dati complessi e trasformarli per ottenere formati utili per analisi e reportistica. Ottimizzazione delle prestazioni: Ottimizzare query e processi per garantire efficienza e rapidità nel trattamento dei dati. Integrazione con Azure Data Factory e Databricks: Utilizzare questi strumenti per orchestrare e processare flussi di dati in modo efficiente. Collaborazione interfunzionale: Lavorare con team di analisti, sviluppatori e stakeholder per comprendere le esigenze di dati e implementare soluzioni. Monitoraggio della qualità dei dati: Implementare controlli di qualità per garantire l’integrità e l’accuratezza dei dati. Documentazione delle pipeline e dei processi: Garantire una documentazione dettagliata e accurata delle procedure di gestione dei dati. Requisiti: Python: programmazione avanzata per la manipolazione dei dati. Databricks: esperienza nella gestione e analisi di big data. SQL: scrittura e ottimizzazione di query SQL. Azure Data Factory: gestione e orchestrazione di pipeline di dati. Azure: conoscenza generale dell’ecosistema cloud Azure. Lingua: Buona padronanza dell’inglese, sia scritto che parlato.

Power BI Consultant

• Competenza in Microsoft Power BI per lo sviluppo e la configurazione di reports e dashboards. • Competenza in DAX (Data Analysis Expressions) per la creazione di colonne calcolate, misure e tabelle personalizzate. • Almeno 3 anni di esperienza nello sviluppo e configurazione di report e dashboard con Microsoft Power BI. • Livello intermedio della lingua inglese scritta e parlata.

Data Engineer

Responsabilità : Sviluppare e gestire report e dashboard avanzati utilizzando PowerBI. Collaborare con i team di business e IT per identificare e rispondere alle esigenze di analisi dei dati. Curare la qualità, la consistenza e l’accuratezza dei dati elaborati. Supportare la documentazione e la manutenzione delle soluzioni di reporting. Monitorare e ottimizzare le performance dei dashboard, proponendo miglioramenti. Requisiti : Almeno 2-3 anni di esperienza nell’uso di PowerBI su progetti di analisi e reporting. Solida conoscenza del ciclo di vita dei dati, dalla raccolta alla visualizzazione. Buona conoscenza della lingua inglese (scritta e parlata). Capacità di lavorare in autonomia e in team su progetti complessi e con scadenze ravvicinate.

Developer SQL/Power BI (Ibrido/Roma)

Hai queste competenze? Laurea in Informatica, Ingegneria Informatica, Statistica, Matematica o discipline affini Eccellente conoscenza di database relazionali e programmazione SQL (Oracle, MS SQL Server, PostgreSQL) Esperienza consolidata nello sviluppo di progetti con Microsoft Power BI: progettazione e modellazione dati, realizzazione di report/dashboard Ottima conoscenza di DAX e Power Query Competenza in disegno, realizzazione e amministrazione di data lake, data warehouse e data lakehouse Esperienza in ambito ETL per il caricamento dei dati Esperienza con tool come Pentaho Data Integration, Power BI Report Server e Report Builder ( Must Have ) Nice to have Conoscenza di strumenti Microsoft O365 come Power Automate e Power APP Esperienza nello sviluppo di API REST Familiarità con GitLab per gestione e versionamento dei rilasci Sei il candidato/a ideale se… Possiedi buone doti di problem solving Sei una persona orientata al risultato, con capacità di analisi e spirito di iniziativa Hai una spiccata propensione al lavoro in team Cosa offriamo? R.A.L. commisurata alla seniority BUONI PASTO (anche in modalità full remote) ASSICURAZIONE SANITARIA CON COPERTURA INTEGRATIVA I nostri benefit PERCORSI DI CARRIERA Abbiamo un articolato sistema di valutazione delle competenze e misurazione delle performance che consente al dipendente di crescere insieme a noi. FORMAZIONE PROFESSIONALIZZANTE Offriamo percorsi di formazione e di aggiornamento professionale con taglio tecnico/pratico su tematiche in ambito ICT. Ogni famiglia tecnologica ha uno o più ICT trainer di riferimento, che, lavorando in piena sinergia con l’area HR, valuta e propone percorsi di formazione continua customizzati sulla crescita professionale di ogni dipendente. SCONTI E PROMOZIONI RISERVATE Abbiamo stabilito degli accordi con delle piattaforme per riservare ai nostri dipendenti scontistica e promozioni esclusive. Il presente annuncio è rivolto a entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.

Python Developer

• Ottima conoscenza di Python • Buona conoscenza di Databricks • Buona conoscenza Spark/PySpark • Conoscenza del Cloud Azure (Azure Data Factory, Azure Storage Account e Logic Apps)

Analista Funzionale (Ibrido Roma)

Hai queste competenze? Laurea in Informatica, Ingegneria informatica, Statistica, Matematica o discipline affini Conoscenza del linguaggio SQL e database relazionali (Oracle, MS Sql Server, PostgreSQL) Conoscenza delle tecniche di disegno, realizzazione ed amministrazione di datalake, data warehousing e data lakehouse ed esperienza in ambito ETL per il caricamento dei dati (MUST HAVE conoscenza del tool Pentaho Data Integration) Esperienze pregresse in ambito business intelligence Esperienza in progettazione e modellazione del dato presente sul datalake e datawarehouse realizzazione di report o dashboard Eccellente conoscenza di Power BI ( must have ) Sei il/la candidato/a ideale se… Possiedi buone doti di problem solving Sei una persona orientata al risultato, con capacità di analisi e spirito di iniziativa Hai una spiccata propensione al lavoro in team Cosa offriamo? R.A.L. commisurata alla seniority BUONI PASTO (anche in modalità full remote) ASSICURAZIONE SANITARIA CON COPERTURA INTEGRATIVA I nostri benefit PERCORSI DI CARRIERA Abbiamo un articolato sistema di valutazione delle competenze e misurazione delle performance che consente al dipendente di crescere insieme a noi. FORMAZIONE PROFESSIONALIZZANTE Offriamo percorsi di formazione e di aggiornamento professionale con taglio tecnico/pratico su tematiche in ambito ICT. Ogni famiglia tecnologica ha uno o più ICT trainer di riferimento, che, lavorando in piena sinergia con l’area HR, valuta e propone percorsi di formazione continua customizzati sulla crescita professionale di ogni dipendente. SCONTI E PROMOZIONI RISERVATE Abbiamo stabilito degli accordi con delle piattaforme per riservare ai nostri dipendenti scontistica e promozioni esclusive. Il presente annuncio è rivolto a entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.

React Frontend

IT Partner Italia ricerca candidati con il seguente profilo professionale: React Frontend . Siamo alla ricerca di uno sviluppatore React front end con esperienza che abbia le seguenti competenze: – Comprensione completa di ReactJS – Competenze in ReactJe e Redux – Esperienza con JS vanilla – Abilità con GIT – Esperienza con Node.js – Buona conoscenza di CSS (Sass) – Esperienza consolidata in Html5/CSS – Buona comprensione della lingua inglese – Conoscenza di TypeScript – Esperienza con KendoReact Si prega di inviare il CV dettagliato in formato europeo all’indirizzo indicando il codice posizione 2024-389-FI-JSFE ed autorizzando il trattamento dei dati personali ai sensi del D. Lgs. 196/2003. L’offerta è rivolta a candidati di entrambi i sessi nel rispetto delle norme sulle parità di trattamento in materia di occupazione e di condizioni di lavoro (D.Lgs. 216/03).

Senior System Engineer

In particolare sono richiesti : Metodologie, tecniche, standard e linee guida per il disegno architetturale di soluzioni applicative tradizionali, Cloud native, Cloud-ready, ad alta modularità, scalabilità orizzontale e verticale, ad alta disponibilità (highly-available system), fault-tolerant Conoscenza degli aspetti infrastrutturali in ambito Enterprise relativi agli ambiti di Computing, Storage, Rete Competenze su sistemi operativi: Linux, Windows Competenze in ambito database: MySQL, PostgreSQL e tecniche di clusterizzazione/ridondanza/HA geografico Competenze sui seguenti framework: Redis, RabbitMQ e relative tecniche di clusterizzazione/ridondanza, HA geografico Competenze in ambito AAA (FreeRADIUS e relativi plugin) Competenze in ambito DNS (BIND, PowerDNS) Laurea triennale in Ingegneria Informatica, Informatica, o discipline tecniche affini, o cultura equivalente Esperienza di almeno 5 anni in un ruolo analogo Sarebbe un plus se avesse: Competenze in ambito OpenStack e VMware, per la gestione di infrastrutture cloud private e virtualizzazione Piattaforme Cloud: AWS, Azure, per l’implementazione e gestione di soluzioni cloud pubbliche Le soft skills che ci piacerebbe trovare sono: Proattività e spirito di iniziativa nel risolvere problemi complessi. Capacità di relazione con il cliente, anche in contesti di consulenza. Autonomia e capacità di gestire in maniera indipendente le proprie attività. Cosa prevede la nostra offerta: Contratto: CCNL Commercio t.indeterminato, full time 8 ore. RAL da concordare fase di selezione e commisurata all’effettiva esperienza (fascia RAL 40.000-45.000€/anno) Si valutano anche collaborazioni in P.IVA Sede di lavoro: Remoto Start up: Dicembre 2024

Data Engineer

Responsabilità principali: Progettare, sviluppare e mantenere pipeline di dati efficienti per la raccolta, elaborazione e distribuzione dei dati aziendali. Implementare e ottimizzare processi ETL per la migrazione e l’integrazione dei dati tra sistemi eterogenei. Monitorare la qualità dei dati, assicurandosi che siano accurati, completi e accessibili in modo affidabile. Collaborare con altri team per comprendere le necessità di dati e tradurle in soluzioni scalabili e automatizzate. Utilizzare Databricks per la gestione e l’elaborazione dei dati, sfruttando le sue capacità avanzate per l’analisi e l’integrazione dei dati. Requisiti: Laurea in Informatica, Ingegneria Informatica, Matematica o un campo correlato. Esperienza comprovata come Data Engineer o in ruoli simili. Ottima conoscenza di Databricks e delle sue funzionalità. Competenze solide nei processi ETL e nell’integrazione di dati tra sistemi. Familiarità con i linguaggi di programmazione (Python, SQL). Buone capacità di risoluzione dei problemi e attenzione alla qualità dei dati. Esperienza con strumenti di gestione e orchestrazione delle pipeline dati (Apache Airflow, Talend o simili) è un plus.