Sviluppatore Javascript

IT Partner Italia ricerca candidati con il seguente profilo professionale: Sviluppatore Javascript . Il candidato ideale dovrà avere le seguenti competenze obbligatorie: – Almeno 3 anni di esperienza come Frontend Developer – Ottima conoscenza di JavaScript e TypeScript – Ottima conoscenza di HTML5 e CSS3 – Solida esperienza con React – Conoscenza di Angular – Buona comprensione della programmazione orientata agli oggetti – Esperienza nello sviluppo di codice pulito, preferibilmente con approcci TDD/BDD – Esperienza con integrazione di REST API e gestione di dati JSON – Ottima conoscenza del sistema di versionamento Git – Buona conoscenza della lingua inglese Si prega di inviare il CV dettagliato in formato europeo all’indirizzo indicando il codice posizione 2026-072-TO-JSFE ed autorizzando il trattamento dei dati personali ai sensi del D. Lgs. 196/2003. L’offerta è rivolta a candidati di entrambi i sessi nel rispetto delle norme sulle parità di trattamento in materia di occupazione e di condizioni di lavoro (D.Lgs. 216/03).

QA Automation Engineer

OpenText UFT One VBScript per automazione test Test funzionali, regressione e integrazione Gestione test plan e test case Integrazione con strumenti di defect tracking Nozioni di CI/CD e ambienti di test Conoscenza di contesti enterprise / PA

Project Manager

IT Partner Italia ricerca candidati con il seguente profilo professionale: Project Manager . Siamo alla ricerca di un Project Manager tecnico con le seguenti caratteristiche: – Esperienza comprovata nella mansione – Richieste competenze in generale su ambienti di sviluppo e gestione progetti sviluppo – Gradite competenze con Java o PHP – Supervisione e coordinamento del team per garantire efficienza e qualità del lavoro – Monitoraggio costante dei progressi del progetto – Organizzare e gestire il proprio lavoro in autonomia Si prega di inviare il CV dettagliato in formato europeo all’indirizzo indicando il codice posizione 2026-069-FI-PM ed autorizzando il trattamento dei dati personali ai sensi del D. Lgs. 196/2003. L’offerta è rivolta a candidati di entrambi i sessi nel rispetto delle norme sulle parità di trattamento in materia di occupazione e di condizioni di lavoro (D.Lgs. 216/03).

Solution Delivery Ex.-DevOps / Cloud Native

Responsabilità: Progettare, implementare e gestire pipeline CI/CD per il rilascio continuo delle applicazioni. Supportare la containerizzazione delle applicazioni e l’orchestrazione tramite piattaforme cloud native. Collaborare con i team di sviluppo per migliorare processi di build, test e deployment automatizzati . Implementare e mantenere infrastrutture Infrastructure as Code (IaC) . Monitorare performance, disponibilità e sicurezza delle piattaforme applicative. Supportare attività di troubleshooting e ottimizzazione delle soluzioni in ambiente cloud. Partecipare alla definizione di best practice DevOps e cloud architecture . Contribuire alla documentazione tecnica e alle procedure operative. Requisiti: Esperienza con piattaforme cloud (AWS, Azure o Google Cloud). Conoscenza di container e orchestrazione (Docker, Kubernetes). Esperienza con strumenti CI/CD (es. GitLab CI, Jenkins, GitHub Actions, Azure DevOps). Conoscenza di Infrastructure as Code (Terraform, Ansible o simili). Familiarità con sistemi di monitoring e logging (Prometheus, Grafana, ELK o equivalenti). Buona conoscenza di Linux e scripting (Bash, Python o simili). Conoscenza di Git e workflow di versionamento . Esperienza in contesti microservizi e architetture cloud native è considerata un plus.

SAP CO Analyst

Esperienza di almeno 2-3 anni sul modulo SAP CO Buona conoscenza della lingua inglese Conoscenza del modulo SAP PS (nice to have)

ORACLE DBA

Responsabilità: Gestione e amministrazione di database Oracle (11g, 12c, 19c, 21c) Installazione, configurazione e upgrade di database Oracle Backup e recovery dei database tramite RMAN, Data Pump e Flashback Monitoraggio e ottimizzazione delle performance (AWR, ASH, tuning query) Implementazione e gestione di soluzioni ad alta disponibilità: RAC, Data Guard, GoldenGate Gestione di storage, tablespace, utenti, privilegi e sicurezza dei database Supporto sistemistico su ambienti Linux/Unix per garantire il corretto funzionamento dei database Requisiti: Competenze Oracle (core): Amministrazione di Oracle Database 11g, 12c, 19c, 21c Backup, recovery e disaster recovery Performance tuning e ottimizzazione query Alta disponibilità e replica dati Competenze sistemistiche Linux/Unix: Amministrazione Linux/Unix (RHEL, Oracle Linux, Solaris) Scripting (bash, shell, Python) per automazione attività Gestione filesystem e LVM Networking di base (TCP/IP, DNS, firewall) Troubleshooting a livello OS Competenze infrastrutturali: Storage SAN, NAS e ASM Virtualizzazione VMware o Oracle VM Cluster e high availability Backup enterprise (Veritas NetBackup, Commvault)

Data Engineer DATABRICKS

Responsabilità: Progettare, sviluppare e mantenere pipeline di ingestione e trasformazione dati utilizzando Databricks. Implementare processi ETL/ELT per integrare dati provenienti da diverse fonti. Ottimizzare performance e costi delle pipeline dati in ambiente cloud. Collaborare con Data Scientist, Data Analyst e team di sviluppo per rendere i dati disponibili e affidabili. Gestire e monitorare workflow di elaborazione dati. Garantire data quality, sicurezza e governance dei dati . Supportare attività di troubleshooting e miglioramento continuo delle soluzioni dati. Requisiti: 3–5 anni di esperienza come Data Engineer o ruolo simile. Esperienza pratica con Databricks (Spark, notebooks, job orchestration). Ottima conoscenza di Python e/o Scala . Esperienza con Apache Spark e processamento di grandi volumi di dati. Buona conoscenza di SQL e modellazione dati. Esperienza con pipeline ETL/ELT e data ingestion. Familiarità con ambienti cloud (Azure, AWS o GCP). Conoscenza di strumenti di versioning (es. Git). Nice to Have: Esperienza con Delta Lake . Conoscenza di strumenti di orchestrazione (es. Airflow, Azure Data Factory). Esperienza con Data Lake / Lakehouse architecture . Competenze di CI/CD per pipeline dati .