Seleccionamos para proyecto que se desarrolla en remoto, un profesional Data Engineer con más de 3 años de experiencia con PySpark.
Responsabilidades:
* Manipulación y análisis de datos en entornos de procesamiento distribuido con PySpark.
* Gestión y creación de ETLs a través de Python.
* Gestión de pipelines mediante Apache Airflow.
* Experiencia en tecnologías API Rest, Python, Open API y PostgreSQL para la creación de APIs.
* Conocimientos en Docker para manejar los contenedores donde se alojan las aplicaciones.
* Despliegues integración continua en Jenkins (CI / CD) y control de versiones en GitLab.
Tecnologías:
SQL / No SQL, Python, PySpark, Numpy, Pandas, Git, Docker, Azure, CI / CD (GitLab / Jenkins), API Rest.
Requisitos Deseables:
* Experiencia en entrenamiento de modelos de machine learning con conjuntos de datos a gran escala.
* Conocimiento funcionales y / o técnicos de AML.
Somos CAS Training, empresa especializada en formación IT, consultoría y outsourcing.
#J-18808-Ljbffr