Seleccionamos para proyecto que se desarrolla en remoto, un profesional Data Engineer con más de 3 años de experiencia con PySpark. · Manipulación y análisis de datos en entornos de procesamiento distribuido con PySpark. · Gestión y creación de ETLs a través de Python. · Gestión de pipelines mediante Apache Airflow. · Experiencia en tecnologías API Rest, Python, Open API y PostgreSQL para la creación de APIs. · Conocimientos en Docker para manejar los contenedores donde se alojan las aplicaciones. · Despliegues integración continua en Jenkins (CI/CD) y control de versiones en GitLab. Tecnologías: SQL/No SQL, Python, PySpark, Numpy, Pandas, Git, Docker, Azure, CI/CD (GitLab/Jenkins), API Rest. · Experiencia en entrenamiento de modelos de machine learning con conjuntos de datos a gran escala. · Nivel de inglés: intermedio alto. - Deseable: conocimiento funcionales y/o técnicos de AML. Somos CAS Training, empresa especializada en formación IT, consultoría y outsourcing.