Descrizione Lavoro
Il nostro obiettivo è sempre stato quello di creare e ampliare nel tempo un gruppo di persone qualificato, affidabile e disponibile; puntando su professionisti esperti, ma anche sulla formazione, investendo risorse nella crescita professionale. Dipendenti e collaboratori attraverso consolidate competenze tecniche, contribuiscono a rendere Craon un’azienda altamente qualificata e competitiva sul mercato ICT.
Stiamo ricercando un middle Machine Learning Engineer con esperienza consolidata nello sviluppo e deployment di soluzioni ML scalabili su Databricks . Specializzato nella gestione di pipeline dati complesse, orchestrazione ML e MLOps, integrazione di modelli in produzione e ottimizzazione delle performance su infrastrutture cloud enterprise.
È richiesta conoscenza di almeno uno dei principali cloud provider (Azure, AWS, GCP), con capacità di lavorare su pipeline distribuite e di gestire cluster, storage e servizi cloud in modo efficiente.
Abituato a lavorare su progetti end-to-end : dall’ingestione e trasformazione dei dati, all’addestramento di modelli, al monitoraggio e retraining automatico in produzione. Forte attitudine alla collaborazione con data scientist, data engineer e team di prodotto per garantire soluzioni affidabili, scalabili e ad alto impatto.
Competenze tecniche:
Databricks & Big Data
Esperienza avanzata con Databricks
PySpark, Spark SQL per elaborazione batch e streaming
Delta Lake, Lakehouse architecture, Delta Live Tables
Workflow e orchestrazione con Databricks Jobs & Workflows
MLflow per tracking esperimenti, versionamento modelli e deployment
Machine Learning / MLOps
Modellazione supervisionata e non supervisionata
Feature engineering su dataset enterprise di grandi dimensioni
Deployment di modelli ML / AI come microservizi o endpoint API
Monitoraggio modelli, drift detection e pipeline di retraining automatico
CI / CD per modelli tramite GitHub Actions, GitLab CI o Azure DevOps
Cloud & Infrastruttura
Conoscenza richiesta di almeno uno tra i principali cloud provider (Azure, AWS, GCP)
Gestione cluster, networking, sicurezza e storage cloud (ADLS, S3, GCS)
Deployment di workflow batch e real-time su cloud provider differenti
Data Engineering
ETL / ELT con PySpark e Delta Live Tables
Gestione data lakehouse e grandi volumi di dati
SQL avanzato e ottimizzazione query
Backend & API
Python (FastAPI / Flask) per servire modelli come microservizi
Containerizzazione con Docker
Orchestrazione workflow e gestione pipeline batch / real-time
Tooling
Git, CI / CD, Azure DevOps / GitHub Actions / GitLab CI
Logging e monitoring (CloudWatch, Azure Monitor, GCP Stackdriver)
IaC : Terraform o Bicep (nice‑to‑have)
Soft Skills
problem solving e pensiero analitico
Capacità di lavorare in team multidisciplinari (data scientist, data engineer, product owner)
Attitudine alla collaborazione e comunicazione efficace
Autonomia nella gestione delle task e delle pipeline di lavoro
Approccio pragmatico e orientato ai risultati
Capacità di gestire progetti complessi e scadenze
Sede : Milano (ibrido)
La posizione contrattuale prevede un contratto a tempo indeterminato CNNL Commercio e servizi; RAL in relazione all’esperienza effettivamente maturata o contratto in P.IVA
Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi.
#J-18808-Ljbffr