Senior Data Platform Engineer

Napoli 13-11-2025

Senior Data Platform Engineer

CRIF Napoli 13-11-2025
Riassunto

Località

Napoli

Divisione Aziendale

Tipo di contratto

Data di pubblicazione

13-11-2025

Descrizione Lavoro

CRIF è un Gruppo internazionale innovativo specializzato in soluzioni IT, sistemi decisionali, outsourcing, software bancari e servizi di consulenza; i nostri clienti sono principalmente società finanziarie, compagnie assicurative, utilities e imprese e li supportiamo in ogni fase del rapporto con i loro clienti.Stiamo costruendo una Self-Serve Data Platform enterprise seguendo i principi della Data Mesh architecture . Di seguito il nostro modello con le figure chiave :I data owner (domain expertse business owner) mantengono il controllo e la responsabilità dei loro datiOgni domain expert definisce autonomamente i propri Data Product : struttura, semantica, politiche di accessoIl nostro team costruisce la piattaforma tecnologica che abilita questa autonomia : infrastruttura cloud-native basata su data engineering, capabilities di data streaming, orchestrazione, governance e tooling self-serviceIl tuo ruolo? Guidi l'architettura e l'implementazione insieme ad altre figure senior, della self-serve data platform - il layer abilitante che permette ai data owner (business) di creare e gestire i loro data product in autonomia, collaborando con loro per capirne i requisiti e fornendo governance, tooling e supporto tecnico.Se vieni da architetture tradizionali (ex : DWH), vuoi rimetterti in gioco usando tecnologie più innovative e conosci le sfide ed i concetti delle piattaforme di dati moderne, questa è la tua opportunità!Cosa farai concretamenteGuiderai l'architettura della data platform : collaborerai con altre figure Senior nellaprogettazione dell'ecosistema di prodotti e servizi (Databricks, streaming platform, orchestration, catalog) definendo come si integrano e comunicanoImplementerai capabiltiesself-service avanzate : costruirai framework, API, SDK che permettono ai domain team di creare data product in autonomia con pattern consistentiIntegrerai e customizzerai prodotti enterprise : installerai e adatterai soluzioni dei partner tecnologici alle esigenze aziendali, bilanciando out-of-the-box vs customizzazioneProgetterai automazioni end-to-end : on-boarding automatico di sorgenti dati, pipelinedi governance, processidi data quality, workflow di deploymentDefinirai standard tecnicie best practice : template riusabili, linee guida architetturali, pattern per integrazione, coding standards per componenti condivisiImplementerai strategie di governance federata : bilancerai controllo centralizzato (compliance, security) con autonomia dei domain teamFarai da technicallead e mentor : guidi il team su scelte tecniche, code review, knowledge sharing, escalation tecnica.Collaborerai con stakeholder multipli : domain team per capire requisiti, vendor per sfruttare al meglio i loro prodotti, leadership per roadmap strategicaMonitorerai e ottimizzerai la piattaforma : garantirai SLA, performance, cost optimization, scalabilità dell'intera infrastrutturaSolide competenze tecniche5+ anni di esperienza in data engineering, data warehousing o moderne data platform, con track record su progetti enterprise complessiEsperienza con ambienti Cloud (Azure, AWS o GCP) - provisioning risorse, networking, security baseStrong programming skills : sviluppo pipeline, automazioni, framework riusabiliETL / ELT enterprise-grade : esperienza con processi batch complessi, CDC (Change Data Capture), incremental loads, data quality checksEsperienza con piattaforme di data integration (Informatica PowerCenter / IICS, Ab Initio, Talend, Oracle ODI, DataStage) e / o modern data streaming (Kafka / Confluent, Flink)Infrastructure-as-code mastery : Terraform, Pulumi o similiEsperienza di utilizzo di API REST, OpenAPI, JSON Schema perintegrazione tra sistemi.API design e governance : REST, GraphQL, event-driven architectureConoscenza del Test Driven Design (TDD)AI e automazioneEsperienza con AI agents perautomazione platform (auto-tuning, anomaly detection, self-healing)Conoscenza di RAG pipelines perdocumentation intelligente o metadata discoveryFamiliarità con LLM integration pernatural language interfaces alla piattaformaUtilizzo quotidiano di AI coding assistants (GitHub Copilot, Cursor) per accelerare sviluppoDeveloper experienceCapiscii 4 pilastri Data Mesh e hai esperienza pratica nell'implementare il pilastro "self-serve data infrastructure as a platform"Esperienza hands-on con Apache Iceberg o Delta Lake - governance, performance tuning, migration strategiesHai costruito data catalogs o integrato tool come Collibra,Alation, Purview con la piattaformaCertificazioniDatabricks Certified Data Engineer Professional o Solutions ArchitectAWS / Azure / GCP certifications (Data Engineer,Solutions Architect)Confluent CertifiedAdministrator for Apache KafkaLeadership TecnicaPlatform thinking - pensi a riusabilità, scalabilità, multi-tenancy by design, non solo alla soluzione puntualeService mindset - i tuoi "clienti" sono i domainteam, la loro produttività è la tua metrica di successoCapacità di navigare ambiguitàe vincoli - bilancirequisiti business, limitazioni tecniche, budget, time-to-marketLeadership tecnicasenza ego - mentori,fai crescere il team, condividi ownership, celebri successi altruiPragmatismo architetturale - sai quando usare il 20% di un prodottoche risolve l'80% del problema vs customizzazione completaOrientamento al valore - valutiROI di ogni iniziativa, non ti innamoridella tecnologia per la tecnologiaAttitudine alla sperimentazione strutturata - PoC, spike,A / B test su nuove capabilities prima di rollout completo
#J-18808-Ljbffr

Condividi

Come Candidarsi

Per maggiori informazioni e per candidarti, clicca il pulsante.