Nuestro Propósito - Reinventar la forma de hacer Consultoría
NWorld somos un ecosistema de compañías especializada en Negocio, Tecnología y Operaciones, que busca cubrir toda la cadena de valor del negocio de nuestros Clientes.
Las Personas que componemos NWorld compartimos una misma meta:
Hacer nuestros los Retos a los que se enfrentan nuestros Clientes .
Los pilares en los que se apoya nuestro Compromiso son:
* Búsqueda continua de Especialización. Sabemos de lo que hablamos.
* Absorber la Tecnología dentro de nuestro ADN. Entendemos la tecnología como parte del Negocio.
* La Innovación en lo que hacemos. Siempre un paso más allá.
Las Personas en el centro, somos una empresa de personas, hecha de personas y orientada a las personas.
* Conócenos más en
//n.World/
¿ A qué Retos nos enfrentamos ?
Como Consultores, El Camino hacia nuestra meta es el Reto principal al que te enfrentarás. Avanzar, aprender, compartir son algunas de las experiencias que vivimos en nuestro día a día.
Trabajamos en diferentes modalidades:
* Proyectos :
Estrategia, Eficiencia, proyectos End to End.
* Soluciones :
Soluciones Consultoras, Plataformas de Mercado.
* Servicios :
Operaciones, Tecnología, Conocimiento.
Fomentando, además del crecimiento profesional, el Crecimiento Personal basado en los principios y valores del Talento que buscamos:
* Principios :
Cercanía y Humildad, Exigencia, Pasión, Valentía, Ejemplo, Crecemos Juntos.
* Valores :
Especialización, Inconformismo, Franqueza, Compromiso, la Persona en el centro.
¿Qué buscamos?
Buscamos un Data Engineer altamente cualificado y motivado para unirse a nuestro equipo. El candidato ideal será responsable de diseñar y liderar la implementación de soluciones de Big Data utilizando Scala/Python y Apache Spark, asegurando el rendimiento, la escalabilidad y la integridad de los datos.
Responsabilidades
* Diseñar y desarrollar arquitecturas de procesamiento de datos en tiempo real y batch utilizando Scala/Python y Apache Spark.
* Colaborar con equipos multifuncionales para definir los requisitos de datos y traducirlos en soluciones técnicas robustas.
* Optimizar el rendimiento de los sistemas de procesamiento de datos.
* Garantizar la calidad y la integridad de los datos mediante la implementación de buenas prácticas y estándares de la industria.
* Mentorizar y liderar a otros desarrolladores proporcionando orientación técnica.
* Mantenerse actualizado con las últimas tecnologías y tendencias en el ámbito de Big Data.
Requisitos obligatorios
* Título universitario en Ciencias de la Computación, Ingeniería Informática o un campo relacionado.
* Experiencia demostrable de al menos 3 años en desarrollo de ETLs con Scala/Spark o Pyspark.
* Sólida experiencia en el uso de Apache Spark para el procesamiento de datos a gran escala.
* Sólida experiencia en el diseño y construcción de ETL/ELT en entornos en la nube (Databricks, Azure, AWS, GCP).
* Experiencia en modelado de datos (relacional, dimensional, etc.).
* Habilidades de resolución de problemas y capacidad para trabajar en un entorno de ritmo ágil.
* Excelentes habilidades de comunicación y capacidad para trabajar en equipo.
Requisitos deseables
* Experiencia previa en el diseño de soluciones en la nube (AWS, Azure, Google Cloud).
* Familiaridad con metodologías Agile y herramientas de gestión de proyectos (JIRA, Confluence, etc.).
* Experiencia trabajando con Kafka.
* Certificaciones relevantes en Big Data o tecnologías en la nube.
¿ Qué te encontrarás ?
Planes de carrera personalizados :
Aquí nunca serás un número
Crecimiento sin Plazos :
Planes de carrera retadores y transparentes
Formamos perfiles mixtos :
Especialistas en negocio con conocimiento técnicos preparados para el entorno digital.
Plan de Formación :
Especialización, aprendizaje continuo, mentoring.
Entorno Flexible :
Creemos en la autonomía y responsabilidad personal. Flexibilidad horaria, Retribución flexible.