Habilidades clave:
- Experiencia con Spark, Hadoop, Kafka o herramientas similares.
- Dominio de SQL avanzado y manejo de bases de datos relacionales y NoSQL.
- Conocimiento en Python o Scala para desarrollo de ETL/ELT.
- Experiencia en entornos de nube (Azure, AWS o GCP).
- Encargado de diseñar, construir y optimizar pipelines de datos a gran escala, integrando diversas fuentes internas y externas.
Debe trabajar con tecnologías de procesamiento distribuido y almacenamiento masivo para habilitar análisis en tiempo real y batch.
Modalidad: Remota
Inglés B2-C1
Tipo de contrato: Indefinido