Siamo alla ricerca di un profilo di Data Engineer da inserire nel team Data Governance & Analytics, con l’obiettivo di gestire la fase di ricezione e ingestion dei flussi di dati relativi ai prodotti/servizi di BANCOMAT.
La risorsa selezionata sarà coinvolta nelle seguenti attività:
- Definire i requisiti necessari all'implementazione di nuovi flussi di dati derivanti dall'ideazione di nuovi servizi;
- Progettare e implementare architetture dati robuste, scalabili e sicure;
- Sviluppare e ottimizzare pipeline di dati complesse per l'ingestion e la trasformazione dei dati;
- Assicurare che la data platform sia costantemente operativa, efficiente, sicura, performante;
- Ottimizzare l'osservabilità e il controllo dei flussi (logging, alerting, metering, monitoring);
- Identificare e sviluppare gli strumenti più adatti a garantire la qualità del dato nelle fasi di ricezione ed elaborazione;
- Collaborare con il team della divisione Technology per le attività di ottimizzazione della infrastruttura relativa ai dati;
- Individuare e promuovere l'implementazione di nuove fonti dati da integrare con quelle esistenti;
- Supportare il team nell'estrazione, elaborazione ed analisi dei dati dei Circuiti gestiti da BANCOMAT e archiviati nel Datalake di proprietà;
- Avere familiarità con metodologie di Data Governance e Data Security.
Requisiti:
- Laurea magistrale in discipline STEM;
- Esperienza tra 3 e 5 anni nel ruolo di Data Engineer con focus significativo su:
- sviluppo e gestione di pipeline di dati su larga scala;
- progettazione e implementazione di architetture di dati complesse;
- lavoro su su piattaforme cloud e servizi di data warehousing/lakehouse.
- Ottima conoscenza della lingua Inglese.
Competenze & soft skill:
- Spiccata attitudine analitica
- Capacità di gestire le priorità, organizzare e condurre efficacemente il flusso di lavoro
- Forte orientamento al lavoro di squadra
- Ottime capacità comunicative anche con soggetti non tecnici
Conoscenze tecniche specifiche:
- Data management
- Programmazione (Python, SQL)
- Applicativi utilizzabili nella gestione dei dati (Spark/SQL/NO SQL/Hadoop)
- Competenze su infrastruttura Microsoft Azure (es. conoscenza Azure Data Factory)
- Conoscenza di metodi di inferenza statistica
- Nice to have: conoscenza databricks