Descripcion del trabajo Big Data IA Developer Researcher Junior. Estamos liando nuestros equipos de consultoria y buscamos developers junior que tengan interes en desarrollarse profesionalmente en Bigdata, IA, Industria 4.0. Nuestro equipo esta formado por fisicos, ingenieros de software, ingenieros de telecomunicacion e ingenieros de electronica. A la hora de inscribirte en la oferta de empleo te planteamos varias preguntas sobre algunos de los temas que mas se trabajan en investigacion, como son BigData, IA e IoT, asi como participacion en proyectos en general y expectativas en salario. No hay una sola respuesta correcta. Ademas, si eres junior, no sabras todas, no importa. La idea es que veamos rapidamente en que proyectos has participado y el nivel de conocimiento tecnico que tienes. En las preguntas tecnicas no hace falta que desarrolles los conceptos de forma extensa. Valoramos interes y / o conocimiento en las siguientes areas: Participacion en proyectos Open Source Administracion sistemas Linux Hadoop Ecosystem tools Cloudera Data Platform Kubernetes / Docker Ciberseguridad Azure, AWS Apache, Apache Tomcat, MySQL Herramientas de desarrollo: Eclipse, Gitlab, Jenkins, Ant, Maven, Nexus Metodologias agiles Ingles hablado y escrito El trabajo es de Developer y entrarias a formar parte de nuestro equipo con la posibilidad de trabajar en remoto, aunque al principio es recomendable empezar en formato mixto remoto / oficina. Como equipo multidisciplinar que somos, las tareas a realizar son mayormente de desarrollo de codigo, pero tambien de analisis, automatizacion de tests, despliegues, resolucion de problemas, creacion de piezas intermedias o artefactos tecnicos. Lo que verdaderamente nos importa es la capacidad de entender los problemas desde el punto de vista de negocio y tecnico, idear soluciones y ser capaces de ponerlas en produccion. Los proyectos que desarrollamos en nuestra area de consultoria van orientados en las siguientes lineas: Diseno e implantacion de plataformas (ZDP, CDP) basadas en herramientas del ecosistema de ASF Procesos de ingesta masiva de datos usando NiFi, captura de datos de PLCs en OT Sistemas de procesado de datos en tiempo real usando Flink, y construccion de gemelos digitales Creacion de modelos usando tecnicas tanto de ML usando Spark como de DL usando Pytorch y / o Tensorflow Gestion del ciclo de vida CI / CD usando terraform y ansible, de infra como codigo Implantacion de metodologias para la gestion de proyecto de IA usando tecnicas de MLOps Oficinas tecnicas del Dato Nos gusta hacer las cosas bien tanto en tecnologia como en la forma de trabajar, por eso toda nuestra metodologia de desarrollo esta basada en DevOps, tratando de automatizar al maximo para evitar perdidas de tiempo. Trabajamos en un entorno agil y nos comunicamos por #Slack. Tambien nos gusta que nuestro equipo este bien preparado, por lo que hemos desarrollado workshops formativos relacionados con cada uno de los productos del ecosistema (de