Vaga de Analytics Engineer
1 vaga: | Publicada em 03/07
A combinar
Sobre a vaga
Inovação e transformação digital caminham juntas. Na Grendene esses temas fazem
parte do nosso dia. Nosso time de TI é nosso grande suporte para a realização de
inúmeros sonhos. Inúmeros mesmos!!! São centenas de projetos ganhando vida todos
os dias através de um time de profissionais incríveis que parecem fazer mágica
todos os dias, e isso é competência mesmo. Vem fazer parte!
Informações adicionais:
Desenvolver automações na plataforma de dados, garantindo durabilidade, alto desempenho e usabilidade, em conjunto com a governança e a segurança. Utilizar técnicas avançadas de análise de dados para identificar padrões, tendências e insights relevantes que suportem decisões estratégicas e operacionais da empresa. Manter a camada de dados e seus serviços para assegurar observabilidade, escalabilidade e flexibilidade, atendendo às demandas dos clientes de forma eficiente. Impulsionar a eficiência da equipe de engenharia ao desenvolver e implementar frameworks, métodos e padrões que otimizem as atividades do time. Orientar e capacitar colegas nas melhores práticas de engenharia de dados para promover escalabilidade e automação na nuvem, colaborando de forma integrada com todos os times. Traduzir as necessidades de negócios em soluções de dados viáveis e reutilizáveis, fomentando uma cultura orientada a dados. Criar e validar hipóteses, adaptando-se rapidamente a mudanças de prioridades ou cenários. Trabalhar com autonomia, sempre apoiando-se na equipe. Ser responsável pela plataforma de dados, identificando e implementando requisitos para melhorias, otimizações e mudanças tecnológicas. Monitorar a disponibilidade, desempenho, capacidade e uso da plataforma, propondo mudanças táticas ou estratégicas conforme necessário. Perfil analítico e hands-on; Unidade:
Farroupilha; Modelo de trabalho:
híbrido ou remoto; Graduação completa em cursos relacionados à Tecnologia da Informação; Conhecimento em Python; Experiência em linguagem SQL; Experiência em Cloud Computing, preferencialmente GCP; Experiência em arquitetura e processos de cargas de dados para DataLake; Experiência em Airflow (Composer); Entendimento em processo de ETL e ELT; Conhecimento em linguagem PySpark; Conhecimento em plataformas de BI (preferencialmente Qlik); Experiência com Databricks; Unidade:
Farroupilha; Modelo de trabalho:
híbrido ou remoto;