Descrizione Lavoro
RAL: €45.000 – €55.000 (in base a esperienza e fit)
Contratto: Full-time, in presenza (no full remote / ibrido al momento)
Otherside Technology è una software house AI-driven che sviluppa prodotti interni e soluzioni enterprise per PMI e grandi imprese. Siamo early-stage, con grandi ambizioni e già in collaborazione con realtà strutturate.
Crediamo in un approccio etico, human-centric all’AI e siamo convinti che lavorare insieme in ufficio sia l’unico modo per creare l’energia e la magia necessarie a costruire qualcosa di grande.
Per potenziare il nostro team stiamo cercando un/una Senior AI Engineer con forte background da backend engineer, capace di muoversi tra codice, architetture e business, parla italiano e inglese.
Progettare e sviluppare LLM private/local (on-prem / VPC) e soluzioni di GenAI integrate nei nostri prodotti interni.
Disegnare e implementare pipeline RAG scalabili, dalla data ingestion alla ricerca semantica (vector DB) fino alla generazione.
Eseguire fine-tuning / adattamento di LLM su dati proprietari usando l’ecosistema Hugging Face (Transformers, Hub, Datasets, ecc.)
Orchestrare applicazioni LLM usando framework come LangChain, LlamaIndex, Haystack o equivalenti per costruire agenti, tool-augmented chat, workflow di retrieval avanzati.
Scegliere e integrare vector database moderni (es. Pinecone, Weaviate, Qdrant, pgvector, Chroma, Milvus, ecc.) in architetture di prodotto enterprise.
Esporre API pulite e robuste, integrate con i moduli AI.
Lavorare a stretto contatto con UX/UI, product e business per creare prodotti interni che siano davvero usabili e ad alto impatto.
Scrivere documentazione tecnica chiara (architetture, decision log, API, playbook MLOps).
Contribuire alla definizione di best practice AI & MLOps: tracking esperimenti, model registry, monitoring (es. MLflow o strumenti analoghi).
Tech & framework che ci interessa tu conosca (o sia pronto/a a padroneggiare)
Lato AI / LLM / RAG
Ecosistema Hugging Face (Transformers, Hub, Datasets, Evaluate, ecc.).
Framework LLM: LangChain, LlamaIndex, Haystack, idealmente conoscenza comparativa dei loro punti di forza (agent pipelines, retrieval-centric, search/chatbot, ecc.).
Concetti di agents, tool calling, prompt orchestration.
Integrazione con LLM proprietari e open-source (es. GPT-like, LLaMA-family, ecc.).
Lato dati / RAG infra
Vector DB: esperienza pratica con almeno uno tra Pinecone, Weaviate, Qdrant, Milvus/Zilliz, Chroma, pgvector o similari, consapevolezza di pro/contro in termini di scalabilità, costi, hybrid search e manutenzione.
Esperienza con pipeline di ingestion e indicizzazione (document loaders, chunking, metadata, schema design).
Lato MLOps / software engineering
CI/CD, containerizzazione (Docker, idealmente Kubernetes o orchestratori equivalenti).
Esperienza con tool di MLOps / GenAI lifecycle (es. MLflow, Weights & Biases o analoghi).
Buona conoscenza di almeno un cloud (AWS/Azure/GCP).
Cosa chiediamo (requisiti)
+7 anni di esperienza nello sviluppo software backend (prevalentemente Python).
+5 anni di esperienza in progetti AI/ML industriali, con almeno alcuni casi in produzione.
Esperienza pratica con LLM, RAG e fine-tuning (non solo PoC da notebook).
Capacità di pensare in modo architetturale: scalabilità, costi, latency, maintainability, sicurezza.
Mentalità ibrida consulenziale + tecnica: sai parlare con stakeholder non tecnici, tradurre esigenze business in soluzioni, discutere trade-off.
Eccellenti capacità di comunicazione e lavoro in team multidisciplinare.
Attenzione alla user experience: l’AI deve essere percepita come utile, affidabile e semplice.
Allineamento con i nostri valori: approccio etico, human-centric, focus su impatto reale.
Disponibilità a lavorare tutti i giorni in presenza nel nostro ufficio in Piazza Diaz, Milano.
Ruolo centrale nella definizione della nostra AI strategy interna e dei prodotti che costruiremo nei prossimi anni.
Ambiente early-stage ma già con progetti concreti e clienti strutturati.
Team piccolo, molto motivato, dove il tuo contributo conta davvero.
Cultura che mette al centro le persone e la crescita professionale, con attenzione a etica, qualità del lavoro e sostenibilità.
Se ti riconosci in questo profilo e ti piace l’idea di costruire prodotti AI reali, non solo demo, lavorando fianco a fianco con il team in centro a Milano:
Invia il tuo CV + portfolio progetti (GitHub, repo, case study) direttamente qui su LinkedIn
Puoi anche aggiungere un breve testo in cui racconti:
un progetto LLM/RAG di cui sei orgoglioso/a,
che ruolo hai avuto,
che scelte architetturali hai fatto e perché.
Colloquio conoscitivo con il CEO
Test tecnico e colloquio con CTO
Ultimo colloquio con il team
#J-18808-Ljbffr