Este cargo tem como maior objetivo desenvolver soluções de dados escaláveis que garantam integração, organização e qualidade das informações, apoiando decisões estratégicas por meio de uma atuação colaborativa com áreas de negócio e foco em eficiência analítica.
- Construir e manter pipelines de dados eficientes e escaláveis;
- Integrar diferentes fontes de dados, como APIs de parceiros, para extração de bases;
- Modelar e organizar dados para análises e relatórios;
- Garantir a qualidade, consistência e segurança dos dados;
- Colaborar com times de negócio para realizar o enquadramento de problemas e soluções em novos projetos de Analytics;
- Documentar processos e fluxos de dados.
Requisitos
- Graduação em Ciência da Computação, Engenharia da Computação ou áreas afins;
- Ingês Avançado;
- Versionamento de código com Git;
- Sólida experiência em desenvolvimento de software;
- Experiência com linguagens de programação como Python e SQL;
- Capacidade de diagnóstico para o desenvolvimento de soluções técnicas e de negócio para promover práticas de analytics;
- Familiaridade com serviços de nuvem (AWS, Google Cloud, Azure etc.);
- Domínio em ferramentas de orquestração de pipelines, como Airflow, Dagster ou Mage AI;
- Conhecimento em arquitetura de Data Warehouse e modelagem dimensional (Kimball).
Você se destaca se tiver:
- Vivência com ferramentas do ecossistema do Google Cloud (Cloud Storage, BigQuery, Cloud Run etc.);
- Prática com Data Build Tool (DBT);
- Noções sobre ferramentas de virtualização por contêineres (Docker);
- Noções sobre ferramentas de Infrastructure as Code (Terraform);
- Vivência com sistemas de Customer Relationship Management (CRM).