¡Oportunidad laboral!
- A partir de 2 años de experiencia.
- Experiencia en el desarrollo de pipelines ETL con Apache Spark y Python.
- Conocimiento práctico de servicio AWS como S3, RDS (PostgreSQL) e IAM, AWS Glue, Amazon EMR y Lambda.
- Sólidas habilidades en SQL.
- Familiaridad con sistemas de control de versiones y flujos de CI/CD.
- Experiencia con procesamiento de datos en tiempo real (deseable).
- Certificación AWS en realización con datos o arquitecturas cloud (deseable).
- Conocimiento de conceptos de inversiones y modelos de datos de banca privada (deseable).
- Diseñar, construir y mantener pipelines ETL utilizando Apache Spark, siguiendo las directrices y estándares establecidos por el Data Engineering Lead.
- Trabajo en remoto al 100%.
Skills:
- Python Avanzado: Obligatorio
- AWS Glue Avanzado: Obligatorio
- Lambda Avanzado: Obligatorio
- Amazon EMR Avanzado: Obligatorio
- Amazon Kinesis Data Firehose Intermedio: Opcional
- Tableau Intermedio: Opcional
- Power BI Intermedio: Opcional
- PostgreSQL Experto: Bloqueante
- Amazon CloudWatch Intermedio: Opcional
- AWS Amazon Web Services Intermedio: Opcional
- Tipología de productos de inversión Intermedio: Opcional
- Inglés Avanzado: Muy valorable.
#J-18808-Ljbffr