Ir para o conteúdo
Logotipo da Catho
Seu novo emprego está na palma das suas mãos! Baixe nosso app e obtenha vantagens :)
Botão App StoreBotão Play Store

Vaga de Analytics Engineer

1 vaga: | Publicada em 03/07

Sobre a vaga

Inovação e transformação digital caminham juntas. Na Grendene esses temas fazem parte do nosso dia. Nosso time de TI é nosso grande suporte para a realização de inúmeros sonhos. Inúmeros mesmos!!! São centenas de projetos ganhando vida todos os dias através de um time de profissionais incríveis que parecem fazer mágica todos os dias, e isso é competência mesmo. Vem fazer parte! Informações adicionais: Desenvolver automações na plataforma de dados, garantindo durabilidade, alto desempenho e usabilidade, em conjunto com a governança e a segurança. Utilizar técnicas avançadas de análise de dados para identificar padrões, tendências e insights relevantes que suportem decisões estratégicas e operacionais da empresa. Manter a camada de dados e seus serviços para assegurar observabilidade, escalabilidade e flexibilidade, atendendo às demandas dos clientes de forma eficiente. Impulsionar a eficiência da equipe de engenharia ao desenvolver e implementar frameworks, métodos e padrões que otimizem as atividades do time. Orientar e capacitar colegas nas melhores práticas de engenharia de dados para promover escalabilidade e automação na nuvem, colaborando de forma integrada com todos os times. Traduzir as necessidades de negócios em soluções de dados viáveis e reutilizáveis, fomentando uma cultura orientada a dados. Criar e validar hipóteses, adaptando-se rapidamente a mudanças de prioridades ou cenários. Trabalhar com autonomia, sempre apoiando-se na equipe. Ser responsável pela plataforma de dados, identificando e implementando requisitos para melhorias, otimizações e mudanças tecnológicas. Monitorar a disponibilidade, desempenho, capacidade e uso da plataforma, propondo mudanças táticas ou estratégicas conforme necessário. Perfil analítico e hands-on; Unidade: Farroupilha; Modelo de trabalho: híbrido ou remoto; Graduação completa em cursos relacionados à Tecnologia da Informação; Conhecimento em Python; Experiência em linguagem SQL; Experiência em Cloud Computing, preferencialmente GCP; Experiência em arquitetura e processos de cargas de dados para DataLake; Experiência em Airflow (Composer); Entendimento em processo de ETL e ELT; Conhecimento em linguagem PySpark; Conhecimento em plataformas de BI (preferencialmente Qlik); Experiência com Databricks; Unidade: Farroupilha; Modelo de trabalho: híbrido ou remoto;