Big Data Engineer

Milano 16-11-2025

Big Data Engineer

UnipolTech Milano 16-11-2025
Riassunto

Località

Milano

Divisione Aziendale

Tipo di contratto

Data di pubblicazione

16-11-2025

Descrizione Lavoro

UnipolTech, società del Gruppo Unipol dedicata alla realizzazione di soluzioni tecnologiche innovative e servizi telematici/IoT distintivi e ad alto valore aggiunto per l’auto, la casa, il benessere e la salute è alla ricerca di un professionista esperto nella gestione di progetti Big Datada inserire nel contesto dell’Area Servizi Informatici della società con il ruolo di:
Sede di lavoro: Bologna / Milano / Firenze / Torino
Il profilo ricercato, una volta inserito nel contesto del team Big Data Hub di UnipolTech, sarà incaricato delle seguenti attività:

Sviluppo di progetti Big Data in collaborazione e a guida del team di sviluppo dedicato;
Gestione dei layer di integrazione su piattaforma Big Data;
Contribuire alla evoluzione del sistema Big Data dando una visione prettamente tecnica sulla definizione degli standard, regole e modelli architetturali;
Redigere le soluzioni tecniche garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema;
Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente;
Precedente esperienza professionale nel ruolo di Big Data Engineer;
Abilità di analisi progettuale, di definizione e implementazione di soluzioni tecniche;
Conoscenza dei principali pattern architetturali di data-architecture, dei principali concetti e strumenti del contesto Big Data e del calcolo distribuito;
Conoscenza ed esperienza nell’utilizzo di strumenti di elaborazione batch (Spark, Amazon Athena, Google BigQuery, Hadoop, Hive, e similari) e storicizzazione (Amazon S3, Google Cloud Storage, HDFS, e similari);
Esperienza con strumenti di elaborazione streaming (Flink, Storm, Spark Streaming, Kafka, e similari);
Conoscenza ed esperienza nell’utilizzo di DB NoSQL (HBase, Cassandra, MongoDB e similari);
Conoscenza ed esperienza di linguaggi di programmazione (Java, Python, Scala), in particolare Scala;
Esperienza consolidata nella manipolazione, estrazione e trasformazione di database non strutturati;
Completano il profilo: ottime capacità relazionali, attitudine al lavoro in team, autonomia e problem solving;

Costituiscono requisiti preferenziali per la selezione i seguenti punti:

Esperienza pregressa di utilizzo e sviluppo su distribuzione Cloudera e/o Databricks/AWS;
Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione);
Principali tecniche di data wrangling, cleansing, exploration e featurization.

La ricerca è rivolta a candidati ambosessi ai sensi della L. 903/77 e D.lgs. 198/2006.
Il candidato in possesso delle competenze e delle esperienze richieste sarà inserito con rapporto di lavoro a tempo indeterminato ai sensi del CCNL Commercio e modalità di lavoro ibride (sede/ remote working).
#J-18808-Ljbffr

Condividi

Come Candidarsi

Per maggiori informazioni e per candidarti, clicca il pulsante.