📍 Ubicación: Remoto o modelo híbrido
🌍 Idioma: Inglés alto (mínimo B2)
💼 Proyecto estratégico en el Centro de Excelencia de Big Data
¿Te apasiona el mundo del Big Data y las arquitecturas distribuidas? ¿Tienes experiencia trabajando con Apache Kafka y te gustaría formar parte de un proyecto clave para uno de los mayores grupos financieros del mundo? ¡Entonces esta oportunidad es para ti!
🧠 ¿Qué harás?
Formarás parte de un equipo técnico de alto nivel, participando en un proyecto estratégico de validación de datos migrados desde un sistema en Mainframe hacia Oracle Exadata (Gravity). Serás responsable de diseñar e implementar una solución de paralelización y validación de datos, asegurando la integridad de la información antes de su paso a producción.
🔧 Stack técnico
* Desarrollo de microservicios con Apache Kafka & Kafka Streams (no KSQL)
* Procesamiento de datos distribuidos
* Validación de flujos de datos en entornos de alta demanda
* Oracle Exadata (entorno destino)
✅ ¿Qué buscamos?
* Experiencia mínima de 3 años en Apache Kafka y Kafka Streams
* Conocimiento en arquitecturas distribuidas
* Nivel de inglés alto (mínimo B2, se valorará C1)
* Mentalidad analítica, proactividad y pasión por la calidad del dato
* 🔎 Valorable: experiencia en proyectos de migración de datos
* 🌐 Deseable: conocimiento previo en banca y/o entorno Santander
🎯 ¿Qué ofrecemos?
* Participación en un proyecto con impacto real y visibilidad dentro del grupo Santander
* Colaboración con un equipo puntero en tecnología Big Data
* Flexibilidad para trabajar de forma remota o híbrida
* Entorno dinámico, retador y orientado a la excelencia tecnológica
¿Te atreves con el reto? 🚀
Envíanos tu CV y da el siguiente paso en tu carrera profesional en el mundo del Big Data.