En MYC SOLUTIONS, nos apasiona la tecnología y estamos en busca de personas que compartan esa pasión.
¿Te unes a nosotros en esta aventura?
Estamos en búsqueda de Profesional para cargo de Ingeniero de Infraestructura Hadoop
1.
Conocimientos Técnicos Esenciales
- Ecosistema Hadoop
- HDFS (Hadoop Distributed File System), YARN, MapReduce.
- Hive, Pig, HBase, Sqoop, Flume.
- Oozie para orquestación de jobs.
- Infraestructura y Sistemas
- Administración avanzada de sistemas Linux (Ubuntu, CentOS, RedHat).
- Scripting en
Bash
y automatización de tareas.
- Redes, seguridad, monitoreo y gestión de clústeres distribuidos.
- Cloud y Virtualización
- Despliegue de Hadoop en AWS (EMR), Azure (HDInsight), Google Cloud (Dataproc).
- Manejo de
contenedores
(Docker, Kubernetes) aplicados a big data.
2.
Procesamiento Distribuido y Colas de Mensajería
- Celery
- Orquestación de tareas distribuidas y asíncronas.
- Integración de Celery con sistemas de datos masivos.
- Monitoreo y escalado de workers.
- RabbitMQ / Gravity MQ
- Arquitectura de colas de mensajes.
- Configuración, administración y monitoreo de brokers de mensajería.
- Diseño de flujos de comunicación entre microservicios y procesos big data.
- Implementación de patrones de mensajería (pub/sub, work queues, routing).
3.
Herramientas Complementarias
- Monitoreo y gestión
: Ambari, Cloudera Manager, Grafana, Prometheus, Nagios.
- ETL y flujos de datos
: NiFi, Airflow, Talend.
- Lenguajes de programación
: Python, Java, Scala (para Spark y Hadoop).
- Versionamiento y CI/CD
: Git, Jenkins.
4.
Conocimientos en Ecosistema Big Data Avanzado
- Apache Spark
: procesamiento batch y en memoria.
- Kafka
: mensajería y streaming de datos en tiempo real.
- ElasticSearch
: indexación y búsqueda avanzada.
- Data Lakes & Warehousing
: integración con Hadoop.
5.
Competencias Blandas
- Capacidad para diagnosticar y resolver fallas en entornos críticos.
- Trabajo colaborativo con áreas de desarrollo, analítica y negocio.
- Documentación clara de arquitecturas y procedimientos.
- Curiosidad tecnológica y actualización continua en ecosistemas Big Data y mensajería distribuida.
Con esta adición, el perfil combina infraestructura big data (Hadoop) con orquestación de procesos (Celery) y mensajería distribuida (RabbitMQ/Gravity MQ), lo que lo hace muy sólido para entornos de procesamiento masivo y microservicios
¿Quieres que te lo deje listo en
formato de descripción de cargo
(con secciones de funciones, requisitos académicos, experiencia y competencias) para que lo uses directamente en Talento Humano?