vagas DISPONÍVEIS


Dev Kotlin / Java Pleno

Forma de Contratação: P.J
Modalidade de trabalho: Remoto

Formação/Especializações/Certificações:
  • Formação em curso superior nas áreas pertinentes a tecnologia;
  • Certificações em Java são desejáveis.
Experiências desejáveis:
  • Conhecimento em serviços AWS (principalmente ECS, EMR, EC2, lambda, SQS)
  • Conhecimento em banco de dados não relacionais.
  • Diferencial muito importante:
    Conhecimento e experiência com o tema câmbio de moedas e investimentos.
Experiências necessárias:
  • Conhecimento e experiência em desenvolvimento utilizando linguagem Java e framework Springboot
  • Conhecimento e experiência em Kotlin
  • Conhecimento e experiência em mensageria utilizando Kafka
  • Conhecimento e experiência em SQL
  • Conhecimento e experiência em GIT
  • Conhecimento e experiência em frameworks ágeis
  • Conhecimento e experiência em Monolitos e MicroServiços
  • Conhecimento e experiência em desenvolvimento de APIs RestFull
  • Conhecimento e experiência em transmissão de dados via SFTP

Engenheiro de Dados Pleno

Forma de Contratação: P.J
Modalidade de trabalho: Remoto

Formação/Especializações/Certificações:
  • Superior Completo nas áreas de TI/Engenharia/Afins
  • Certificações AWS e Ágeis (Desejável)
Experiências desejáveis:
  • Experiência em projetos ágeis, seguindo metodologias Scrum e Kanban
Experiências necessárias:
  • SQL: Análise de queries e proposição de melhoria de performance
  • PL/SQL: Criação de procedures, views, triggers
  • Análise de causa raiz de erros
  • Projetos de DW / BI / Data Lake
  • Mapeamento de dados (Origem > Staging/Raw Data >Refined)
  • Processos de carga/ingestão de dados em ambiente AWS usando JSON
  • Stack de Serviços de Data Lake AWS, especialmente Redshift e WLM;
  • Airflow - Criação e análise de dags
  • Jenkins
  • Git
  • Python 

Principais atividades:

  • Criação dos processos de ingestão de dados em Data Lake;
  • Apoio no Desenho de arquitetura de solução para Data Lake;
  • Modelagem de dados de BI / Data Lake (Multidimensional, Star Schema, Snow Flake, Flat, DataMarts);
  • Extração de dados e geração de arquivos de saída;
  • Carga de dados em base AWS Redshift;
  • Otimizações para carga e consulta de dados no AWS Redshift (distribuição, ordenação, compressão, concorrência, otimizações, uso de copy/unload, uso de materialized views);
  • Análise e otimização dos clusters de Redshift (sizing/resizing, configuração dos nós, uso de Dense Computing (DC) X Dense Storage (DS), elastic resize, pause/resume para redução de custos, aplicação do vacuum e analyze);
  • Criação dos pipelines de dados utilizando Apache Airflow;
  • Geração de Relatórios / Dashboards em Power BI;
  • Data Mapping;
  • System / Data Discovery - Entendimento dos sistemas de origem.

Engenheiro de Dados Sênior (Presencial)

Forma de Contratação: P.J
Modalidade de trabalho: Presencial - Belo Horizonte/MG

Formação/Especializações/Certificações:
  • Superior Completo nas áreas de TI/Engenharia/Afins
  • Certificações AWS e Metodologias Ágeis (Desejável)
Experiências desejáveis:
  • Experiência em projetos ágeis, seguindo metodologias Scrum e Kanban
Experiências necessárias:
  • Projetos de DW / BI / Data Lake
  • Modelagem de dados para BI (Multidimensional, Star Schema, Flat Tables, DataMarts)
  • Mapeamento de dados (Origem > Staging/Raw Data >Refined)
  • Arquitetura de Data Lake AWS
  • Processos de carga/ingestão de dados em ambiente AWS
  • Stack de Serviços de Data Lake AWS, especialmente Redshift;
  • Criação/configuração de cluster de Redshift
  • Modelagem de dados e tabelas para Redshift, observando-se distribuição dos dados, performance, utilização de recursos, característica do dado, etc.
  • Airflow
  • Jenkins
  • Git
  • Python
  • Pyspark
  • Amazon EMR
  • Amazon SNS
  • AWS K8s
  • Tópico Kafka
  • Glue
  • S3
  • Banco de dados relacionais
  • Banco de dados não relacionais

Principais atividades:

  • Criação dos processos de ingestão de dados em Data Lake
  • Modelagem de dados de BI / Data Lake (Multidimensional, Star Schema, Snow Flake, Flat, DataMarts)
  •  Extração de dados e geração de arquivos de saída.
  • Carga de dados em base AWS Redshift
  • Otimizações para carga e consulta de dados no AWS Redshift (distribuição, ordenação, compressão, concorrência, otimizações, uso de copy/unload, uso de materialized views);
  • Análise e otimização dos clusters de Redshift
  • Criação dos pipelines de dados utilizando Apache Airflow
  • Geração de Relatórios / Dashboards em Tableau
  • Data Mapping
  • System / Data Discovery - Entendimento dos sistemas de origem.

Engenheiro de Dados Pleno (Presencial)

Forma de Contratação: P.J
Modalidade de trabalho: Presencial - Belo Horizonte/MG

Formação/Especializações/Certificações:
  • Superior Completo nas áreas de TI/Engenharia/Afins
  • Certificações AWS e Metodologias Ágeis (Desejável)
Experiências desejáveis:
  • Experiência em projetos ágeis, seguindo metodologias Scrum e Kanban
Experiências necessárias:
  • Projetos de DW / BI / Data Lake
  • Modelagem de dados para BI (Multidimensional, Star Schema, Flat Tables, DataMarts)
  • Mapeamento de dados (Origem > Staging/Raw Data >Refined)
  • Arquitetura de Data Lake AWS
  • Processos de carga/ingestão de dados em ambiente AWS
  • Stack de Serviços de Data Lake AWS, especialmente Redshift
  • Criação/configuração de cluster de Redshift
  • Modelagem de dados e tabelas para Redshift, observando-se distribuição dos dados, performance, utilização de recursos, característica do dado, etc
  • Airflow
  • Jenkins
  • Git
  • Python
  • Pyspark
  • Amazon EMR
  • Amazon SNS
  • AWS K8s
  • Tópico Kafka
  • Glue
  • S3
  • Banco de dados relacionais
  • Banco de dados não relacionais

Principais atividades:

  • Criação dos processos de ingestão de dados em Data Lake
  • Modelagem de dados de BI / Data Lake (Multidimensional, Star Schema, Snow Flake, Flat, DataMarts)
  •  Extração de dados e geração de arquivos de saída.
  • Carga de dados em base AWS Redshift
  • Otimizações para carga e consulta de dados no AWS Redshift (distribuição, ordenação, compressão, concorrência, otimizações, uso de copy/unload, uso de materialized views);
  • Análise e otimização dos clusters de Redshift
  • Criação dos pipelines de dados utilizando Apache Airflow
  • Geração de Relatórios / Dashboards em Tableau
  • Data Mapping
  • System / Data Discovery - Entendimento dos sistemas de origem.

Desenvolver
vai muito além
da tecnologia


Somos responsáveis por uma cultura única que agrega valor para nossos clientes através de squads de Analytics, IT, Cloud e EAM. É esta responsabilidade que facilita o desenvolvimento de soluções sob experimentações constantes centradas em dados e promove transformação cultural, digital e cognitiva, impactando em cada aspecto de uma empresa.


Unindo time, cultura e método, criamos soluções customizadas e escaláveis para inovar em produtos e serviços. Atuamos no desenvolvimento de aplicativos, plataformas e integrações, com conhecimento do negócio, gestão enxuta, AI, IoT, nuvem, blockchain, entre outros.

Nós usamos cookies
Preferências de cookies
Abaixo, você pode encontrar informações sobre os propósitos pelos quais nós e nossos parceiros usamos cookies e processamos dados. Você pode exercitar suas preferências de processamento e/ou ver detalhes nos sites dos nossos parceiros.
Cookies analíticos Desativar tudo
Cookies funcionais
Outros cookies
Utilizamos cookies para personalizar conteúdo e anúncios, fornecer recursos de mídia social e analisar nosso tráfego. Saiba mais sobre nossa política de cookies.
Aceitar tudo Recusar tudo Alterar preferências
Cookies