Vaga de CVLB | ESPECIALISTA BIG DATA (TI)
1 vaga: | Publicada em 29/06
- A combinar
Sobre a vaga
Nascemos da união de duas empresas que são referência no varejo brasileiro:
a CASA&VIDEO e a Le biscuit . Juntas somos quase 400 lojas espalhadas por 15 estados, 2 centros de distribuição e cerca de 5.000 colaboradores que atendem mais de 35 milhões de clientes por ano. As duas marcas possuem grande complementariedade geográfica e se conectam de forma afetiva com seus clientes em diferentes regiões. Juntas estamos presentes nas regiões centro-oeste, nordeste, norte e sudeste. Por aqui, sonhamos grande! Queremos expandir ainda mais o nosso negócio, nos consolidando com uma das maiores empresas de varejo do Brasil e tornando a vida dos nossos clientes mais feliz. Para que tudo isso seja possível, colocamos sempre o cliente no centro das nossas decisões. E aí, animado(a) para acompanhar a gente nessa caminhada? Siga a nossa página e fique por dentro de tudo o que rola por aqui. Seguimos juntos, sonhando & realizando ainda mais! /n Para conquistar um lugar no time de talentos do Grupo CVLB, você precisa:
Bacharelado em Ciência da Computação, Engenharia, Matemática, Estatística ou área
relacionada; Mínimo de 3 anos de experiência em dados (Engenharia e Adminisração);
Proficiência em linguagens de programação como Python e SQL; Conhecimento em
bancos de dados relacionais e não relacionais; Conhecimento em Google Cloud
Platform (GCP), especialmente BigQuery, SQL Server, Airflow (Composer) e Pyspark;
Experiência com ferramentas de ETL/ELT; Conhecimento em cloud computing e
ferramentas relacionadas; Será um diferencial possuir c ertificações em Google
Cloud Platform; Será um diferencial ter experiência em Machine Learning e
Inteligência Artificial; Será um diferencial ter c onhecimento em ferramentas de
visualização de dados (e.g., PowerBI, Looker); Excelentes habilidades de resolução
de problemas e atenção aos detalhes; Capacidade de comunicação. trabalho em equipe
e autogestão. /n Qual será sua tarefa no Grupo CVLB? Será responsável por
desenvolver e manter pipelines de dados eficientes e escaláveis usando Google
Cloud Platform (GCP); Projetar, implementar e otimizar arquiteturas de banco de
dados; Integrar dados de múltiplas fontes em uma solução DataLake; Garantir a
qualidade, consistência e segurança dos dados; Implementar e monitorar processos
de ETL/ELT utilizando Airflow (Composer), DataFlow e DataProc; Criar e manter
documentação técnica e relatórios detalhados; Converter procedures SQL para Python
(DAGs no Airflow).