Você será responsável por projetar, construir e implementar o Data Lake do Lance! do zero, garantindo uma infraestrutura de dados robusta, escalável e governada. Seu trabalho permitirá que todas as áreas de negócio gerem seus dashboards e extraiam insights estratégicos com total confiança e agilidade.
PRINCIPAIS DEVERES E RESPONSABILIDADES
Arquitetura de Dados:
Projetar e evoluir a arquitetura do nosso Data Lake, Data Warehouse e Data Marts, definindo as melhores práticas e tecnologias.
Desenvolver modelos de dados eficientes e escaláveis para atender às necessidades de analytics e business intelligence.
Definir e implementar políticas de governança de dados, incluindo qualidade, segurança, privacidade (LGPD/GDPR) e dicionário de dados.
Engenharia de Dados:
Construir, testar e otimizar pipelines robustas de ingestão (ETL/ELT) de dados de diversas fontes (bancos de dados transacionais, APIs, arquivos, etc.).
Garantir a qualidade, consistência e disponibilidade dos dados em todas as camadas da plataforma.
Implementar e gerenciar infraestrutura de dados em ambiente de nuvem (Ex: AWS, Azure, GCP – especifique se houver preferência).
Automatizar processos de dados, monitoramento e alertas para garantir a estabilidade e performance da plataforma.
Estratégia e Colaboração:
Trabalhar em estreita colaboração com as áreas de negócio para entender suas necessidades de dados e traduzi-las em soluções técnicas.
Avaliar e recomendar novas tecnologias e ferramentas para aprimorar nossa capacidade de dados.
Ser o ponto focal técnico para todas as iniciativas de dados na empresa, construindo as bases para um futuro time de dados.
Evangelizar a cultura data-driven na empresa e auxiliar na mentoria de futuros membros do time.
REQUISITOS
Superior Completo: Engenharias, Ciências da Computação, Informática, e áreas correlatas.
Experiência de 3 até 5 anos.
Inglês Técnico (Leitura e escrita).
Experiência comprovada no design e implementação de arquiteturas de dados (Data Lakes, Data Warehouses).
Proficiência em engenharia de dados, incluindo construção e manutenção de pipelines ETL/ELT.
Domínio de SQL avançado e pelo menos uma linguagem de programação para manipulação e processamento de dados (Python é preferencial).
Experiência com plataformas de nuvem (AWS, Azure ou GCP) e seus serviços de dados (Ex: S3, Glue, Athena, Redshift no AWS; Data Lake Storage, Data Factory, Synapse no Azure; GCS, Dataflow, BigQuery no GCP).
Sólidos conhecimentos em governança de dados, qualidade de dados e segurança.
Capacidade de trabalhar de forma autônoma, propor soluções e liderar projetos desde a concepção até a entrega.
Excelente comunicação e habilidades interpessoais para interagir com stakeholders técnicos e não técnicos.
Mentalidade de "ownership" e paixão por construir coisas do zero.
CONHECIMENTOS NECESSÁRIOS
Conhecimento em ferramentas de Business Intelligence (Ex: Power BI, Tableau, Looker, Qlik Sense).
Ferramentas de orquestração de dados (Ex: Apache Airflow, Prefect ou Dagster).
Domínio avançado de SQL e Python (com foco em Spark/PySpark para processamento de dados)
DESEJÁVEL
Experiência em ambientes de startup ou empresas em rápido crescimento.
Conhecimento em metodologias ágeis.
Conhecimento em ferramentas de modelagem como dbt (Data Build Tool).