Data Engineer Intern

Konfio

Konfio

Data Science
Miguel Hidalgo, Ecatepec de Morelos, Méx., Mexico
Posted 6+ months ago

¿Quiénes somos?

¡Somos la empresa de tecnología financiera en México, que ha ayudado a más de 70k clientes a hacer sus planes realidad!

Nuestro propósito es apoyar las pequeñas y medianas empresas del país a cumplir sus sueños, a través de nuestras soluciones (financiamiento, tarjeta de crédito y pagos) para ayudar a resolver sus principales problemas, buscando ser el mejor aliado de los emprendedores, contribuyendo a la comunidad, el país y el planeta.

Tu reto
Desarrollar e implementar pipelines de datos robustos y escalables para satisfacer las necesidades de análisis y procesamiento de la organización colaborando estrechamente con otros equipos para comprender los requisitos de datos y proporcionar soluciones eficientes. Debe mantener y mejorar continuamente los sistemas de almacenamiento y procesamiento de datos, implementar prácticas de seguridad y cumplimiento, y automatizar procesos de ETL para garantizar la integridad, disponibilidad y eficiencia de los datos, facilitando la toma de decisiones informadas y el crecimiento del negocio.

Responsabilidades

  • Dirigir la transformación de datos según reglas técnicas y comerciales.
  • Diseñar y desarrollar pipelines de datos para extracción e ingestión de datos.
  • Gestionar el modelado de datos y la creación de ERMs.
  • Gestionar el dimensionamiento y pruebas de rendimiento para capas finales de consumo de datos.

¿Qué buscamos?

  • Recién egresados de carreras como ciencias de la computación, ingeniería, matemáticas, ingeniería de software o afín.
  • Conocimientos de SQL.
  • Conocimientos en Python.
  • Conocimientos en modelado de datos y diseño de arquitecturas.
  • Conocimientos en el diseño, construcción y mantenimiento de pipelines de datos para la ingesta, transformación y carga de datos desde diversas fuentes hacia sistemas de almacenamiento y análisis.
  • Conocimientos de técnicas y herramientas de ETL (Extract, Transform, Load), así como experiencia en la manipulación y procesamiento de grandes volúmenes de datos.