Related skills
etl sql s3 python kafka📋 Description
- Crear y mantener pipelines de datos para el producto y negocio.
- Diseñar y construir arquitecturas de bases de datos para datos masivos.
- Desarrollar auditorías de calidad de datos a escala y alertas.
- Crear dashboards e informes escalables para decisiones basadas en datos.
- Diagnosticar y resolver problemas complejos en producción.
- Colaborar con Product Managers para definir e implementar nuevas funcionalidades.
🎯 Requirements
- Inglés avanzado (requisito excluyente).
- Disponibilidad para trabajar híbrido en Santiago.
- Más de 2 años en desarrollo de software (data engineering).
- Dominio de Python y SQL.
- Experiencia con Big Data: Kafka, Spark, Iceberg, S3.
- Experiencia en procesamiento de datos a gran escala y ETL/ELT (batch y streaming).
🎁 Benefits
- Entorno colaborativo y dinámico.
- Modalidad híbrida con oficina en Santiago.
- Bono anual de 3,000 USD para certificaciones y desarrollo.
- Cobertura de salud, vida y dental para empleados y dependientes.
- RSU y oportunidades de avance profesional.
Meet JobCopilot: Your Personal AI Job Hunter
Automatically Apply to Data Jobs. Just set your
preferences and Job Copilot will do the rest — finding, filtering, and applying while you focus on what matters.
Help us maintain the quality of jobs posted on Empllo!
Is this position not a remote job?
Let us know!