Buscamos un Ingeniero de Datos con experiencia para trabajar con nuestro Gerente de Ingeniería de Datos.
Qué harás?
Las tareas principales descritas a continuación buscan dar una idea general del trabajo y no son una lista completa. Aunque todas las funciones son importantes, el tiempo dedicado a cada una puede variar. Es importante ser puntual y asistir al trabajo regularmente.
- Liderar el diseño y desarrollo de soluciones de ingeniería de datos (usando Databricks, SQL, DBT, Python, C#, Terraform) para los proyectos más importantes y complejos.
- Trabajar con otros equipos para promover el uso de datos para aumentar las ventas y el crecimiento de clientes.
- Entender a fondo todos los datos de HQY. Trabajar con el negocio para convertir sus problemas más importantes en soluciones con datos y análisis.
- Solucionar problemas en cualquier parte de la plataforma de datos o en soluciones específicas.
- Tener un papel central en el diseño del almacén de datos.
- Promover la automatización siempre que sea posible. Diseñar e implementar procesos automatizados para el equipo.
- Promover la calidad y el buen manejo de los datos. Automatizar las revisiones de calidad de datos.
- Ayudar al equipo de ciencia de datos a crear modelos de aprendizaje automático proporcionando datos de alta calidad.
- Resolver problemas en tecnologías o áreas con las que no se tiene experiencia.
- Guiar y dar apoyo a los ingenieros menos experimentados.
Qué buscamos?
- Estudios universitarios en Ingeniería, Analista de Sistemas, Analista Programador, Matemáticas o un campo relacionado y experiencia laboral.
- Capacidad y motivación para entregar proyectos de desarrollo de ETL/ELT de forma rápida y eficiente usando la metodología Agile.
- Buenas habilidades para resolver problemas.
- Capacidad para innovar, llevar proyectos a buen término y crear soluciones duraderas.
- Experiencia con servicios en la nube (como Azure, AWS, GCP).
- Conocimiento de bases de datos que procesan mucha información al mismo tiempo (como DataBricks, Delta Lake, Apache Spark, Snowflake, Redshift).
- Conocimiento de SQL y sistemas de gestión de bases de datos relacionales (como Azure SQL, SQL Server, Oracle, MySQL) y bases de datos NoSQL (como MongoDB).
- Conocimiento de herramientas para procesar ETL (como DBT, Databricks, Fivetran, SSIS).
- Se valorará entender cómo organizar los datos (como 3NF, Dimensional) y saber cómo aplicarlo.
- Se valorará buen entendimiento de Terraform y saber interpretar planes de ejecución de Terraform.
- Se valorará buen manejo de lenguajes de programación usados en datos y análisis (como Python, C#).
- Compromiso con la seguridad y privacidad de los datos.