Ingeniería, Actuaría, Matemáticas Aplicadas, Ingeniería Industrial o afín.
Experiencia sólida en programación, con especial énfasis en Python.
Experiencia en la manipulación de datos a gran escala y optimización de consultas SQL.
Experiencia en el uso de herramientas como Matillion, SSIS, Oracle para la construcción y gestión de flujos ETL.
Experiencia demostrable en el manejo de bases de datos, incluyendo la optimización de consultas SQL.
Conocimiento sobre bases de datos relacionales y no relacionales. Asi como de Datawarehouse, datalake, datavault.
Responsibilities:
Recolectar datos de diversas fuentes, incluyendo bases de datos, archivos CSV y APIs, utilizando herramientas ETL para realizar limpieza y preprocesamiento.
Diseñar y construir pipelines de datos eficientes utilizando herramientas como Matillion, garantizando la automatización en la recolección, transformación y carga (ETL) de datos.
Integrar y consumir datos de APIs externas para enriquecer conjuntos de datos y mejorar la calidad de la información.
Contribuir al diseño de arquitecturas eficientes para el manejo de grandes volúmenes de datos, utilizando tecnologías como Python y SQL.