Related skills
azure etl sql python kafka📋 Description
- Projetar e construir pipelines batch/streaming no Azure para ingestão de dados.
- Desenvolver e operar pipelines no Azure Data Factory (ADF) com agendamento e monitoramento.
- Implementar ingestão/streaming com Kafka para feeds quase em tempo real.
- Transformar dados para outputs RDF e mapear entidades/relacionamentos.
- Trabalhar com modeladores de ontologias/grafos para alinhar saídas aos grafos e IDs.
- Estabelecer verificações de qualidade de dados, logs e runbooks operacionais.
🎯 Requirements
- Mais de 3 anos construindo pipelines de dados em produção no Azure (ADF).
- Experiência com Kafka ou tecnologia de streaming/mensageria.
- SQL forte e pelo menos uma linguagem de programação (Python).
- ETL/ELT, modelagem de dados e operações de pipelines (monitoramento, reprocessos, SLAs).
- Inglês avançado/fluente.
🎁 Benefits
- Cultura inclusiva e oportunidades de desenvolvimento.
- Iniciativas de diversidade e Life at Capco.
Meet JobCopilot: Your Personal AI Job Hunter
Automatically Apply to Engineering Jobs. Just set your
preferences and Job Copilot will do the rest — finding, filtering, and applying while you focus on what matters.
Help us maintain the quality of jobs posted on Empllo!
Is this position not a remote job?
Let us know!