CYS - Data & Application Engineer - IDG at Leonardo
Rome, Lazio, Italy -
Full Time


Start Date

Immediate

Expiry Date

13 May, 26

Salary

0.0

Posted On

12 Feb, 26

Experience

5 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

Python, NLP, LLM, RAG, Evaluation Framework, Vector Search, FastAPI, REST, Statistical Analysis, Docker, Kubernetes, MLOps, AI Training, Data Science, Problem Solving, Team Collaboration, Technical Communication

Industry

Defense and Space Manufacturing

Description
Job Description: Leonardo SpA è un gruppo industriale internazionale, tra le principali realtà mondiali nell’Aerospazio, Difesa e Sicurezza che realizza capacità tecnologiche multidominio in ambito Elicotteri, Velivoli, Aerostrutture, Elettronica, Cyber Security e Spazio. Con oltre 60.000 dipendenti nel mondo, l’azienda ha una solida presenza industriale in Italia, Regno Unito, Polonia, Stati Uniti, e opera in 150 paesi anche attraverso aziende controllate, joint venture e partecipazioni. Protagonista dei principali programmi strategici a livello globale, è partner tecnologico e industriale di Governi, Amministrazioni della Difesa, Istituzioni e imprese. All’interno dell’Area Cyber & Security Solutions, stiamo ricercando un/a Data & application engineer per la nostra sede di Roma. La persona si occuperà delle seguenti attività: Progettare e sviluppare componenti di RAG/LLM per risposte sintetiche e spiegabili su documenti interni (prompting, tool/function calling se previsto, gestione multi-turn). Definire e implementare metodologie di valutazione (offline/online) per qualità delle risposte: groundedness (aderenza alle fonti), completezza, coerenza, gestione incertezza e copertura del retrieval. Creare dataset di test e “golden set” di dominio (domande reali, query complesse, casi ambigui/contraddittori) e automatizzare la generazione di report di performance. Tuning del retrieval ibrido (BM25 + semantic): scelta top-k, pesi, filtri metadati, dedup/reranking e query rewriting per sigle/gergo tecnico. Sviluppare logiche di planning per query complesse (decomposizione in sotto-query/DAG) e criteri di stop/iterazione del ciclo retrieve→answer→critique. Collaborare con team di piattaforma per integrazione con inference backend e garantire requisiti di latenza/streaming (SSE) e robustezza in modalità degraded. Implementare strumenti e pipeline software (Python) per esperimenti riproducibili: tracking configurazioni, versioning prompt/modelli, ablation study, analisi errori e regressioni. Titolo di studio: Laurea magistrale o PhD in Data Science, Informatica, Ingegneria, Matematica, Statistica o discipline affini Seniority: Senior. Conoscenze e competenze tecniche: Ottima programmazione in Python (design modulare, testing, packaging), uso di Git e code review. Esperienza con NLP/LLM e architetture RAG (embeddings, chunking, retrieval, grounding, citazioni). Capacità di costruire evaluation framework: metriche automatiche + human-in-the-loop, analisi qualitativa degli errori, definizione di soglie e criteri di accettazione. Familiarità con vector search e sistemi di ricerca (OpenSearch/Elasticsearch o equivalenti), BM25, KNN, reranking. Conoscenza di FastAPI/REST per integrazione servizi e debugging di flussi end-to-end. Buone basi di statistica sperimentale (A/B test concettuale, significatività, bias/variance), ottimizzazione e interpretazione risultati. Gradita esperienza con stack containerizzato (Docker/Kubernetes) e GPU inference (concetti di latenza, batching, timeouts). Competenze comportamentali: Forte orientamento al risultato e capacità di passare dal prototipo al software robusto. Attitudine al problem solving su dati/documenti complessi e requisiti stringenti di trasparenza. Autonomia nella conduzione di esperimenti, ma anche capacità di lavorare in team cross-funzionali (AI, backend, cybersecurity, domain expert). Comunicazione chiara: capacità di spiegare trade-off, limiti e incertezze in modo verificabile Conoscenze linguistiche: Inglese almeno B2/C1 (scrittura documentazione tecnica, lettura paper e doc di prodotto. Competenze informatiche: Linux, Git, strumenti di CI/CD, strumenti di tracking (Jira/analoghi), ambiente notebook e scripting, Ottima conoscenza del linguaggio Python e delle librerie più popolari (numpy, pandas, opencv), Esperienza in addestramenti e fine-tuning di modelli di AI su framework PyTorch/PyTorch Lightining/Hugginface. Altro (es. Disponibilità a trasferte, Certificazioni specifiche…): Disponibilità a trasferte occasionali; gradite certificazioni/esperienza su MLOps, osservabilità (logging/metrics), sicurezza applicativa in contesti enterprise/regulated; gradita esperienza con dati e documentazione in ambito difesa/sicurezza. Seniority: Primary Location: IT - Roma - Via Laurentina Additional Locations: IT - Genova - Fiumara Contract Type: Permanent Hybrid Working: International, multicultural, innovative, technological: this is Leonardo. The company’s passionate and talented team is strongly influenced by STEM (Science, Technology, Engineering, Mathematics) expertise, with a diverse range of experience that enables colleagues to share knowledge and know-how across the generations. Leonardo always wants to expand its talent pool, here you can find the right opportunity for you!
Responsibilities
The Data & Application Engineer will design and develop components for RAG/LLM to provide explainable responses on internal documents. They will also define evaluation methodologies for response quality and create test datasets.
Loading...