¡Ampliamos nuestro equipo!
¿Buscas un nuevo reto donde desarrollar tu carrera y aprender nuevas tecnologías? Entonces sigue leyendo porque esto te puede interesar.
Scalian es una empresa de más de 6.000 personas con una dimensión internacional, con oficinas en Europa y América del Norte. Estamos especializados en dar servicios a diferentes clientes enfocados en Data, Cloud e Inteligencia Artificial.
¿Qué funciones realizarás?
* Diseñar, construir y mantener pipelines ETL utilizando Apache Spark, siguiendo las directrices y estándares establecidos por el Data Engineering Lead
* Realizar transformaciones complejas, cálculos avanzados y joins en grandes volúmenes de datos en un entorno cloud, garantizando la escalabilidad, seguridad y rendimiento del sistema
* Asegurar la calidad y consistencia de los datos procesados mediante pruebas automatizadas y validaciones
* Documentar procesos ETL y mantener actualizada la arquitectura bajo la supervisión y guía del Lead
* Coordinarse con el Cloud Engineer para garantizar la integración fluida de los pipelines con la infraestructura de AWS
* Documentar los procesos ETL según los estándares definidos por el equipo.
Requisitos mínimos:
* Experiencia en el desarrollo de pipelines ETL con Apache Spark y Python
* Conocimiento práctico de servicios AWS como S3, RDS (PostgreSQL) e IAM, AWS Glue, Amazon EMR y Lambda
* Sólidas habilidades en SQL
* Familiaridad con sistemas de control de versiones y flujos de CI/CD
Requisitos valorables:
* Experiencia con procesamiento de datos en tiempo real
* Certificación AWS en realización con datos o arquitecturas cloud
* Conocimiento de conceptos de inversiones y modelos de datos de banca privada
* Buen nivel de inglés
¿Qué tendrás con nosotros?