Desarrollador PySparkUbicación: Presencial (en sitio)Nivel: STD (Standard)Tipo de contratación: Tiempo completoObjetivo del rolDiseñar, desarrollar y optimizar procesos de extracción, transformación y carga (ETL) utilizando PySpark, asegurando el manejo eficiente de grandes volúmenes de datos y su integración en ecosistemas cloud.Responsabilidades1. Desarrollar pipelines de datos utilizando PySpark y Python.2. Diseñar y mantener procesos ETL eficientes y escalables.3. Optimizar consultas y procesos para garantizar el rendimiento en ambientes distribuidos.4. Colaborar con equipos de datos y arquitectura para integrar soluciones en plataformas cloud.5. Realizar pruebas y validaciones de calidad sobre los datos procesados.6. Documentar procesos y generar buenas prácticas de desarrollo.Requisitos técnicos1. Dominio avanzado de Python orientado a procesamiento de datos.2. Experiencia comprobable en desarrollo con PySpark.3. Conocimiento en diseño y construcción de ETLs.4. Familiaridad con entornos cloud (GCP, AWS o Azure).5. Conocimiento básico de almacenamiento en la nube y servicios asociados (BigQuery, S3, Blob Storage, etc.).6. Experiencia trabajando con grandes volúmenes de datos en entornos distribuidos.Habilidades deseables1. Conocimientos en herramientas de orquestación (Airflow, Luigi).2. Familiaridad con frameworks de data quality o testing de datos.3. Experiencia previa en proyectos de migración o modernización de data lakes.Competencias personales1. Pensamiento analítico y orientación a resultados.2. Capacidad de trabajo colaborativo en equipos multidisciplinarios.3. Proactividad para identificar mejoras y automatizaciones.#J-18808-Ljbffr