Proxima è un gruppo di aziende con skill funzionali e tecnologiche innovative, che mettono a fattor comune la propria esperienza in un’offerta congiunta di sviluppo di soluzioni all’interno della nostra Software Factory. Offriamo consulenza e servizi di Application Management e Quality Assurance. Chi cerchiamo? Analista Programmatore (Big Data / Spark) Richiesti almeno 3 anni di esperienza Dove e come? Italia, full remote Di cosa ti occuperai? Attività in consulenza Sei la persona ideale se… Sei il candidato ideale se hai una solida esperienza nello sviluppo di soluzioni Big Data, utilizzi Spark in modo avanzato e sai trasformare grandi volumi di dati in informazioni di valore per il business. Cosa offriamo? R.A.L. commisurata alla seniority BUONI PASTO (anche in modalità full remote) ASSICURAZIONE SANITARIA CON COPERTURA INTEGRATIVA I nostri benefit PERCORSI DI CARRIERA Abbiamo un articolato sistema di valutazione delle competenze e misurazione delle performance che consente al dipendente di crescere insieme a noi. FORMAZIONE PROFESSIONALIZZANTE Offriamo percorsi di formazione e di aggiornamento professionale con taglio tecnico/pratico su tematiche in ambito ICT. SCONTI E PROMOZIONI RISERVATE Abbiamo stabilito degli accordi con delle piattaforme per riservare ai nostri dipendenti scontistica e promozioni esclusive.
Competenze richieste: Hai queste competenze? Apache Spark Python SQL Esperienza su Apache Spark (preferibilmente in contesti Big Data / Hadoop) esecuzione e troubleshooting job tramite spark-submit Gestione parametri Spark e modalità di esecuzione (driver/executor, conf principali) Conoscenza di Python 3 sviluppo e manutenzione job PySpark Gestione parametri/configurazioni, logging e debug runtime Buona conoscenza di SQL Buona conoscenza di Unix Shell scripting (Bash/Sh)
Analista Programmatore (Big Data / Spark)
Hai queste competenze? Apache Spark Python SQL Esperienza su Apache Spark (preferibilmente in contesti Big Data / Hadoop) esecuzione e troubleshooting job tramite spark-submit Gestione parametri Spark e modalità di esecuzione (driver/executor, conf principali) Conoscenza di Python 3 sviluppo e manutenzione job PySpark Gestione parametri/configurazioni, logging e debug runtime Buona conoscenza di SQL Buona conoscenza di Unix Shell scripting (Bash/Sh)