Descrizione Lavoro
UnipolTech, società del Gruppo Unipol dedicata alla realizzazione di soluzioni tecnologiche innovative e servizi telematici/IoT distintivi e ad alto valore aggiunto per l’auto, la casa, il benessere e la salute è alla ricerca di un professionista esperto nella gestione di progetti Big Datada inserire nel contesto dell’Area Servizi Informatici della società con il ruolo di:Sede di lavoro: Bologna / Milano / Firenze / TorinoIl profilo ricercato, una volta inserito nel contesto del team Big Data Hub di UnipolTech, sarà incaricato delle seguenti attività:Sviluppo di progetti Big Data in collaborazione e a guida del team di sviluppo dedicato;Gestione dei layer di integrazione su piattaforma Big Data;Contribuire alla evoluzione del sistema Big Data dando una visione prettamente tecnica sulla definizione degli standard, regole e modelli architetturali;Redigere le soluzioni tecniche garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema;Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente;Precedente esperienza professionale nel ruolo di Big Data Engineer;Abilità di analisi progettuale, di definizione e implementazione di soluzioni tecniche;Conoscenza dei principali pattern architetturali di data-architecture, dei principali concetti e strumenti del contesto Big Data e del calcolo distribuito;Conoscenza ed esperienza nell’utilizzo di strumenti di elaborazione batch (Spark, Amazon Athena, Google BigQuery, Hadoop, Hive, e similari) e storicizzazione (Amazon S3, Google Cloud Storage, HDFS, e similari);Esperienza con strumenti di elaborazione streaming (Flink, Storm, Spark Streaming, Kafka, e similari);Conoscenza ed esperienza nell’utilizzo di DB NoSQL (HBase, Cassandra, MongoDB e similari);Conoscenza ed esperienza di linguaggi di programmazione (Java, Python, Scala), in particolare Scala;Esperienza consolidata nella manipolazione, estrazione e trasformazione di database non strutturati;Completano il profilo: ottime capacità relazionali, attitudine al lavoro in team, autonomia e problem solving;Costituiscono requisiti preferenziali per la selezione i seguenti punti:Esperienza pregressa di utilizzo e sviluppo su distribuzione Cloudera e/o Databricks/AWS;Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione);Principali tecniche di data wrangling, cleansing, exploration e featurization.La ricerca è rivolta a candidati ambosessi ai sensi della L. 903/77 e D.lgs. 198/2006.Il candidato in possesso delle competenze e delle esperienze richieste sarà inserito con rapporto di lavoro a tempo indeterminato ai sensi del CCNL Commercio e modalità di lavoro ibride (sede/ remote working).San Donato Milanese, Lombardy, Italy 6 days ago
#J-18808-Ljbffr