Requisiti:
- Almeno 3 anni di esperienza in data engineering in ambienti cloud
- Solida competenza nei servizi AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions).
- Esperienza nella gestione di dati batch e streaming con Apache Spark (Scala/Python), PySpark.
- Buona conoscenza di AWS DMS, Debezium e strategie di replica database.
- Solide competenze su database relazionali e NoSQL e SQL avanzato.
- Competenze solide su architetture a microservizi e integrazione API
- Esperienza con formati Parquet e JSON.
- Ottima conoscenza di Python e AWS SDK.
- Buona conoscenza della lingua italiana e inglese
I dati verranno trattati e conservati unicamente per finalità di selezioni del personale per esigenze attuali e future ai sensi del DL 196 del 20/06/2003 e dell'Art. 13 GDPR 679/16.