Responsabilidades Clave
- Diseñar, desarrollar y mantener pipelines de datos en entornos de nube (GCP, AWS o Azure).
- Construir y mantener APIs y microservicios para integrar fuentes de datos.
- Desarrollar procesos ETL y scripts de automatización para ingestión y transformación de datos.
- Implementar prácticas de versionado, despliegue continuo e integración continua para componentes de datos.
- Monitorear la calidad de los datos y garantizar su disponibilidad y confiabilidad.
- Optimizar el desempeño de las cargas de datos y procesos de transformación.
- Colaborar estrechamente con arquitectos de datos y Data Engineers para alinear soluciones con los objetivos del negocio.
Requisitos:
Requisitos Técnicos y Habilidades
- Experiencia: 5+ años en desarrollo de soluciones de datos en entornos de nube.
- Lenguajes: Python, SQL, y al menos uno de los siguientes: Java, Scala, Go.
- Cloud: Experiencia con Google Cloud Platform (GCP) altamente deseable (BigQuery, Dataflow, Pub/Sub, Cloud Composer).
- ETL/ELT: Experiencia desarrollando pipelines de datos con herramientas como Airflow, Data Fusion, DBT o similares.
- DevOps: Conocimientos en CI/CD (GitLab CI, Jenkins) y contenedores (Docker, Kubernetes).
- Bases de datos: Experiencia en bases de datos relacionales y NoSQL (BigQuery, PostgreSQL, MongoDB).
- Inglés: Nivel C1+ C2 para comunicación con equipos internacionales.