vagas DISPONÍVEIS
Dev Kotlin / Java Pleno
Forma de Contratação: P.J
Modalidade de trabalho: Remoto
Formação/Especializações/Certificações:
Modalidade de trabalho: Remoto
Formação/Especializações/Certificações:
- Formação em curso superior nas áreas pertinentes a tecnologia;
- Certificações em Java são desejáveis.
- Conhecimento em serviços AWS (principalmente ECS, EMR, EC2, lambda, SQS)
- Conhecimento em banco de dados não relacionais.
- Diferencial muito importante:
Conhecimento e experiência com o tema câmbio de moedas e investimentos.
- Conhecimento e experiência em desenvolvimento utilizando linguagem Java e framework Springboot
- Conhecimento e experiência em Kotlin
- Conhecimento e experiência em mensageria utilizando Kafka
- Conhecimento e experiência em SQL
- Conhecimento e experiência em GIT
- Conhecimento e experiência em frameworks ágeis
- Conhecimento e experiência em Monolitos e MicroServiços
- Conhecimento e experiência em desenvolvimento de APIs RestFull
- Conhecimento e experiência em transmissão de dados via SFTP
Engenheiro de Dados Pleno
Forma de Contratação: P.J
Modalidade de trabalho: Remoto
Formação/Especializações/Certificações:
Modalidade de trabalho: Remoto
Formação/Especializações/Certificações:
- Superior Completo nas áreas de TI/Engenharia/Afins
- Certificações AWS e Ágeis (Desejável)
- Experiência em projetos ágeis, seguindo metodologias Scrum e Kanban
- SQL: Análise de queries e proposição de melhoria de performance
- PL/SQL: Criação de procedures, views, triggers
- Análise de causa raiz de erros
- Projetos de DW / BI / Data Lake
- Mapeamento de dados (Origem > Staging/Raw Data >Refined)
- Processos de carga/ingestão de dados em ambiente AWS usando JSON
- Stack de Serviços de Data Lake AWS, especialmente Redshift e WLM;
- Airflow - Criação e análise de dags
- Jenkins
- Git
- Python
Principais atividades:
- Criação dos processos de ingestão de dados em Data Lake;
- Apoio no Desenho de arquitetura de solução para Data Lake;
- Modelagem de dados de BI / Data Lake (Multidimensional, Star Schema, Snow Flake, Flat, DataMarts);
- Extração de dados e geração de arquivos de saída;
- Carga de dados em base AWS Redshift;
- Otimizações para carga e consulta de dados no AWS Redshift (distribuição, ordenação, compressão, concorrência, otimizações, uso de copy/unload, uso de materialized views);
- Análise e otimização dos clusters de Redshift (sizing/resizing, configuração dos nós, uso de Dense Computing (DC) X Dense Storage (DS), elastic resize, pause/resume para redução de custos, aplicação do vacuum e analyze);
- Criação dos pipelines de dados utilizando Apache Airflow;
- Geração de Relatórios / Dashboards em Power BI;
- Data Mapping;
- System / Data Discovery - Entendimento dos sistemas de origem.
Engenheiro de Dados Sênior (Presencial)
Forma de Contratação: P.J
Modalidade de trabalho: Presencial - Belo Horizonte/MG
Formação/Especializações/Certificações:
Modalidade de trabalho: Presencial - Belo Horizonte/MG
Formação/Especializações/Certificações:
- Superior Completo nas áreas de TI/Engenharia/Afins
- Certificações AWS e Metodologias Ágeis (Desejável)
- Experiência em projetos ágeis, seguindo metodologias Scrum e Kanban
- Projetos de DW / BI / Data Lake
- Modelagem de dados para BI (Multidimensional, Star Schema, Flat Tables, DataMarts)
- Mapeamento de dados (Origem > Staging/Raw Data >Refined)
- Arquitetura de Data Lake AWS
- Processos de carga/ingestão de dados em ambiente AWS
- Stack de Serviços de Data Lake AWS, especialmente Redshift;
- Criação/configuração de cluster de Redshift
- Modelagem de dados e tabelas para Redshift, observando-se distribuição dos dados, performance, utilização de recursos, característica do dado, etc.
- Airflow
- Jenkins
- Git
- Python
- Pyspark
- Amazon EMR
- Amazon SNS
- AWS K8s
- Tópico Kafka
- Glue
- S3
- Banco de dados relacionais
- Banco de dados não relacionais
Principais atividades:
- Criação dos processos de ingestão de dados em Data Lake
- Modelagem de dados de BI / Data Lake (Multidimensional, Star Schema, Snow Flake, Flat, DataMarts)
- Extração de dados e geração de arquivos de saída.
- Carga de dados em base AWS Redshift
- Otimizações para carga e consulta de dados no AWS Redshift (distribuição, ordenação, compressão, concorrência, otimizações, uso de copy/unload, uso de materialized views);
- Análise e otimização dos clusters de Redshift
- Criação dos pipelines de dados utilizando Apache Airflow
- Geração de Relatórios / Dashboards em Tableau
- Data Mapping
- System / Data Discovery - Entendimento dos sistemas de origem.
Engenheiro de Dados Pleno (Presencial)
Forma de Contratação: P.J
Modalidade de trabalho: Presencial - Belo Horizonte/MG
Formação/Especializações/Certificações:
Modalidade de trabalho: Presencial - Belo Horizonte/MG
Formação/Especializações/Certificações:
- Superior Completo nas áreas de TI/Engenharia/Afins
- Certificações AWS e Metodologias Ágeis (Desejável)
- Experiência em projetos ágeis, seguindo metodologias Scrum e Kanban
- Projetos de DW / BI / Data Lake
- Modelagem de dados para BI (Multidimensional, Star Schema, Flat Tables, DataMarts)
- Mapeamento de dados (Origem > Staging/Raw Data >Refined)
- Arquitetura de Data Lake AWS
- Processos de carga/ingestão de dados em ambiente AWS
- Stack de Serviços de Data Lake AWS, especialmente Redshift
- Criação/configuração de cluster de Redshift
- Modelagem de dados e tabelas para Redshift, observando-se distribuição dos dados, performance, utilização de recursos, característica do dado, etc
- Airflow
- Jenkins
- Git
- Python
- Pyspark
- Amazon EMR
- Amazon SNS
- AWS K8s
- Tópico Kafka
- Glue
- S3
- Banco de dados relacionais
- Banco de dados não relacionais
Principais atividades:
- Criação dos processos de ingestão de dados em Data Lake
- Modelagem de dados de BI / Data Lake (Multidimensional, Star Schema, Snow Flake, Flat, DataMarts)
- Extração de dados e geração de arquivos de saída.
- Carga de dados em base AWS Redshift
- Otimizações para carga e consulta de dados no AWS Redshift (distribuição, ordenação, compressão, concorrência, otimizações, uso de copy/unload, uso de materialized views);
- Análise e otimização dos clusters de Redshift
- Criação dos pipelines de dados utilizando Apache Airflow
- Geração de Relatórios / Dashboards em Tableau
- Data Mapping
- System / Data Discovery - Entendimento dos sistemas de origem.
Desenvolver
vai muito além
da tecnologia
Somos responsáveis por uma cultura única que agrega valor para nossos clientes através de squads de Analytics, IT, Cloud e EAM. É esta responsabilidade que facilita o desenvolvimento de soluções sob experimentações constantes centradas em dados e promove transformação cultural, digital e cognitiva, impactando em cada aspecto de uma empresa.
Unindo time, cultura e método, criamos soluções customizadas e escaláveis para inovar em produtos e serviços. Atuamos no desenvolvimento de aplicativos, plataformas e integrações, com conhecimento do negócio, gestão enxuta, AI, IoT, nuvem, blockchain, entre outros.
©2024 Projetas Soluções Integradas. Todos os direitos reservados.