Seleccionamos para proyecto que se desarrolla en remoto, un profesional Data Engineer con más de 3 años de experiencia con PySpark.
· Manipulación y análisis de datos en entornos de procesamiento distribuido con PySpark.
· Gestión y creación de ETLs a través de Python.
· Gestión de pipelines mediante Apache Airflow.
· Experiencia en tecnologías API Rest, Python, Open API y PostgreSQL para la creación de APIs.
· Conocimientos en Docker para manejar los contenedores donde se alojan las aplicaciones.
· Despliegues integración continua en Jenkins (CI/CD) y control de versiones en GitLab.
Tecnologías: SQL/No SQL, Python, PySpark, Numpy, Pandas, Git, Docker, Azure, CI/CD (GitLab/Jenkins), API Rest.
· Experiencia en entrenamiento de modelos de machine learning con conjuntos de datos a gran escala.
· Nivel de inglés: intermedio alto.
- Deseable: conocimiento funcionales y/o técnicos de AML.
Somos CAS Training, empresa especializada en formación IT, consultoría y outsourcing.