Descrizione Lavoro
Selection 4.0, una società tecnologicamente all’avanguardia specializzata nella ricerca e selezione di profili di Middle e Top Management a livello nazionale e internazionale, è alla ricerca di un Data Engineer.Il nostro cliente è una delle principali web company italiane, con oltre 1000 dipendenti e più di 10 milioni di utenti, in crescita costante, con piattaforme web e punti fisici distribuiti in tutta Italia.Inserito in un team altamente qualificato, ti occuperai dell’evoluzione della piattaforma dati centralizzata, raccogliendo ed elaborando grandi quantità di dati e guidando la creazione di prodotti innovativi per milioni di italiani. Collaborerai con Product Manager, Data Scientist, Data Analyst e altri Data Engineer, mettendo a disposizione dell’organizzazione grandi quantità di dati per supportare le Business Unit come Marketing, Servizi Finanziari e Assicurazioni, che lavorano su analisi e machine learning.Responsabilità:Progettare e sviluppare data pipeline, sia in modalità batch che streaming.Collaborare con i Data Scientist per industrializzare modelli predittivi, applicando principi di MLOps.Definire e implementare l’orchestrazione dei processi in ambienti containerizzati.Sviluppare microservizi per l’esposizione e la fruizione dei dati da parte degli stakeholder aziendali.Monitorare l’intero ciclo di vita dei processi (pipeline, modelli, API) attraverso strumenti dedicati.Automatizzare il ciclo di vita del software con soluzioni CI/CD e Infrastructure as Code (es. GitLab CI, Terraform).Modellare e trasformare i dati tramite dbt, facilitando la collaborazione e la gestione delle logiche di business.Requisiti:Laurea in Informatica, Ingegneria Informatica o campi affini.1–3 anni di esperienza come Data Engineer o Software Engineer.Esperienza nello sviluppo in ambienti cloud, preferibilmente su Google Cloud Platform (GCP).Ottima conoscenza di Python (e/o Java, Scala).Solida padronanza di SQL, preferibilmente su BigQuery.Esperienza con framework di elaborazione dati distribuiti (es. Apache Spark, Apache Beam).Conoscenza di sistemi di messaggistica come Kafka o Google Pub/Sub.Esperienza con strumenti di orchestrazione (es. Apache Airflow) e ambienti containerizzati (Docker, Kubernetes).Familiarità con sistemi di versionamento del codice (GIT).Attitudine al problem solving, proattività e orientamento al miglioramento continuo.Offriamo un ambiente meritocratico, welfare aziendale di alto livello, formazione continua, percorsi di crescita interni, cultura aziendale positiva e attenzione al benessere delle persone. La nostra azienda è solida, strutturata e in crescita.Luogo di lavoro: HQ Milano, con possibilità di lavoro full remote (con incontri periodici).
#J-18808-Ljbffr