Related skills
aws sql s3 python spark📋 Description
- Diseñar, desarrollar, probar y desplegar pipelines de datos con AWS.
- Construir data lake, lakehouse o data mesh.
- Soluciones de datos end to end con frameworks reutilizables.
- Colaborar con Data Engineering, Analytics y DevOps para entregar valor.
- Asegurar gobierno de datos, seguridad y gestión de información.
- Liderar incidencias de datos y gestión de cambios con ownership.
🎯 Requirements
- Experiencia mínima de 5+ años trabajando en entornos Cloud.
- Sólidos conocimientos en Spark (Scala), Python y SQL.
- Experiencia en AWS, con S3, Glue, Athena, EMR, EC2 y Lambda.
- Diseño de ETL y modelado de datos.
- Capacidad para entender procesos end to end y decisiones técnicas.
- Nivel de Inglés avanzado.
🎁 Benefits
- Contrato indefinido.
- Modalidad flexible y posibilidad de trabajo remoto.
- Plan de carrera personalizado y formación continua.
- Participación en proyectos estables con alto componente técnico.
- Flexibilidad horaria y conciliación.
- Beneficios sociales adaptados a tus necesidades.
Meet JobCopilot: Your Personal AI Job Hunter
Automatically Apply to Data Jobs. Just set your
preferences and Job Copilot will do the rest — finding, filtering, and applying while you focus on what matters.
Help us maintain the quality of jobs posted on Empllo!
Is this position not a remote job?
Let us know!