Descripción del trabajo
Seleccionamos para proyecto que se desarrolla en remoto, un profesional Data Engineer con más de 3 años de experiencia con PySpark.
* Manipulación y análisis de datos en entornos de procesamiento distribuido con PySpark.
* Gestión y creación de ETLs a través de Python.
* Gestión de pipelines mediante Apache Airflow.
* Experiencia en tecnologías API Rest, Python, Open API y PostgreSQL para la creación de APIs.
* Conocimientos en Docker para manejar los contenedores donde se alojan las aplicaciones.
* Despliegues integración continua en Jenkins (CI / CD) y control de versiones en GitLab.
* Experiencia en entrenamiento de modelos de machine learning con conjuntos de datos a gran escala.
* Nivel de inglés: intermedio alto.
* Deseable: conocimiento funcionales y / o técnicos de AML.
Tecnologías: SQL / No SQL, Python, PySpark, Numpy, Pandas, Git, Docker, Azure, CI / CD (GitLab / Jenkins), API Rest.
Somos CAS Training, empresa especializada en formación IT, consultoría y outsourcing.
#J-18808-Ljbffr