Ir para o conteúdo
Logotipo da Catho
Seu novo emprego está na palma das suas mãos! Baixe nosso app e obtenha vantagens :)
Botão App StoreBotão Play Store

Vaga de Engenheiro(a) de Dados - Remoto

1 vaga: | Publicada em 03/07

Sobre a vaga

O nome Mesha foi criado com base na Rede Mesh  a conexão de diversos pontos que se comunicam entre si e formam uma rede única de alta qualidade, com tecnologia de ponta e alta tolerância a falhas -. Com base nisso, nossa empresa tem o propósito de unir os melhores desenvolvedores a negócios para potencializar os resultados de forma expressiva. Assim como redes do tipo mesh, a Mesha é resiliente: nos planejamos, reagimos e nos adaptamos às mudanças do mercado com o objetivo de prosperar negócios. Com o aumento de demanda por profissionais de tecnologia, nos apresentamos para empresas como uma solução para a alocação de Squads, que aumentaram a produtividade da sua empresa, geram entregas mais agéis e melhor alinhamento em prol de um projeto. É como se cada cada colaborador e cada cliente fosse ponto de contato. Quando nos conectamos uns aos outros, mantemos o equilíbrio e formamos uma rede com valores que nos guiam: Empatia com Satisfação, Respeito com Integridade, Ousadia com Responsabilidade, Transparência com Rentabilidade e Cultura Ágil. A principal característica da Rede Mesh é se diferenciar no mercado da tecnologia e aqui na Mesha não é diferente. Nos preocupamos em entregar demandas de forma rápida, eficiente e de alta performance. Interligamos pessoas capacitadas a negócios e proporcionamos a experiência do crescimento e do aprendizado para todos os envolvidos, incluindo nós como empresa. Conte com as nossas ideias, soluções inovadores e engajamento! /n Experiência com processo de ingestão de dados em ambientes de Data Lake; Experiência com programação em Python; Conhecimento em modelagem dimensional; Conhecimento em banco de dados NoSQL e SQL; Computação em nuvem com Azure; Práticas de DevOps e infraestrutura como código (Docker, etc.); Arquitetura e estruturas de dados. Desejáveis: Experiência em pipelines de fluxo de dados utilizando ferramentas de ETL como Pentaho, SSIS, etc; Conhecimento em tecnologias de Big Data incluindo Hadoop, Spark; Experiência nas ferramentas de tecnologias de Dados da Azure (Data Lake Storage, Azure Data Factory, Synapse Analytics, Azure Databricks); Ter atuado previamente na construção de um Data Lake; Controle de versões Git. /n Liderança e elaborar pipeline completa de dados junto com nossos desenvolvedores e cientistas de dados; Resolver impedimentos; Desenvolver e manter ETLs e Pipelines utilizando o ambiente de Data Lake da Azure; Gerenciar volume, variedade, velocidade e veracidade dos dados; Implementar mecanismos de segurança para acesso aos dados; Desenvolver mecanismos de monitoramento e execução dos sistemas e das pipelines. Experiência em pipelines de fluxo de dados utilizando ferramentas de ETL como Pentaho, SSIS, etc; Conhecimento em tecnologias de Big Data incluindo Hadoop, Spark; Experiência nas ferramentas de tecnologias de Dados da Azure (Data Lake Storage, Azure Data Factory, Synapse Analytics, Azure Databricks); Ter atuado previamente na construção de um Data Lake; Controle de versões Git. /n Liderança e elaborar pipeline completa de dados junto com nossos desenvolvedores e cientistas de dados; Resolver impedimentos; Desenvolver e manter ETLs e Pipelines utilizando o ambiente de Data Lake da Azure; Gerenciar volume, variedade, velocidade e veracidade dos dados; Implementar mecanismos de segurança para acesso aos dados; Desenvolver mecanismos de monitoramento e execução dos sistemas e das pipelines.