vagas DISPONÍVEIS
Analista de Testes
Forma de Contratação: CLT
Modalidade de trabalho: Preferencialmente presencial na região de Campinas (*Serão analisados perfis que estiverem fora da região de Campinas)
Perfil desejado para testes laboratoriais em:
Modalidade de trabalho: Preferencialmente presencial na região de Campinas (*Serão analisados perfis que estiverem fora da região de Campinas)
Benefícios:
- Seguro Saúde
- Seguro Odontológico
- Seguro de Vida
- Vale Alimentação
- Subsídio para certificações
- Vale Presente-Datas Comemorativas/Aniversário
Perfil desejado para testes laboratoriais em:
- Produtos wireless;
- Experiência comprovada em ensaios de dispositivos de pagamento (POS - Point of Sale);
- Conhecimento do modo de operação do sistema financeiro e a rede de conectividade de dados digitais vinculada;
- Conhecimento de Linux e programação (Phyton, Java, C++, etc…) para configuração de dispositivos/ sistemas;
- Disponibilidade para trabalho presencial em todos os dias úteis da semana;
- Experiência na operação de equipamentos de simulação de nodeB (2G, 3G, 4G e 5G) para testes de POS da Keysight, R&S e Anritsu;
- Bom conhecimento em redes de comunicação/ conectividade e experiência na instalação e configuração de redes;
- Experiência comprovada em automação de dispositivos e processos, incluindo elaboração de relatórios;
- Experiência em relacionamento com cliente e seus intermediários;
- Proativo, fácil relacionamento, facilidade no trabalho em equipe, ético e respeitoso, pronto para fornecer e receber feedbacks, colaborativo a atento aos compromissos;
- Conhecimento de inglês e espanhol (desejável);
- Experiências em testes de ferramentas OpenSource;
- Experiência com testes de dispositivos POS em redes WiFi, Bluetooth e Ethernet.
Engenheiro de Dados Pleno
Forma de Contratação: P.J
Modalidade de trabalho: Remoto
Formação/Especializações/Certificações:
Modalidade de trabalho: Remoto
Formação/Especializações/Certificações:
- Superior Completo nas áreas de TI/Engenharia/Afins
- Certificações AWS e Ágeis (Desejável)
- Experiência em projetos ágeis, seguindo metodologias Scrum e Kanban
- SQL: Análise de queries e proposição de melhoria de performance
- PL/SQL: Criação de procedures, views, triggers
- Análise de causa raiz de erros
- Projetos de DW / BI / Data Lake
- Mapeamento de dados (Origem > Staging/Raw Data >Refined)
- Processos de carga/ingestão de dados em ambiente AWS usando JSON
- Stack de Serviços de Data Lake AWS, especialmente Redshift e WLM;
- Airflow - Criação e análise de dags
- Jenkins
- Git
- Python
Principais atividades:
- Criação dos processos de ingestão de dados em Data Lake;
- Apoio no Desenho de arquitetura de solução para Data Lake;
- Modelagem de dados de BI / Data Lake (Multidimensional, Star Schema, Snow Flake, Flat, DataMarts);
- Extração de dados e geração de arquivos de saída;
- Carga de dados em base AWS Redshift;
- Otimizações para carga e consulta de dados no AWS Redshift (distribuição, ordenação, compressão, concorrência, otimizações, uso de copy/unload, uso de materialized views);
- Análise e otimização dos clusters de Redshift (sizing/resizing, configuração dos nós, uso de Dense Computing (DC) X Dense Storage (DS), elastic resize, pause/resume para redução de custos, aplicação do vacuum e analyze);
- Criação dos pipelines de dados utilizando Apache Airflow;
- Geração de Relatórios / Dashboards em Power BI;
- Data Mapping;
- System / Data Discovery - Entendimento dos sistemas de origem.
Engenheiro de Dados Sênior (Presencial)
Forma de Contratação: P.J
Modalidade de trabalho: Presencial - Belo Horizonte/MG
Formação/Especializações/Certificações:
Modalidade de trabalho: Presencial - Belo Horizonte/MG
Formação/Especializações/Certificações:
- Superior Completo nas áreas de TI/Engenharia/Afins
- Certificações AWS e Metodologias Ágeis (Desejável)
- Experiência em projetos ágeis, seguindo metodologias Scrum e Kanban
- Projetos de DW / BI / Data Lake
- Modelagem de dados para BI (Multidimensional, Star Schema, Flat Tables, DataMarts)
- Mapeamento de dados (Origem > Staging/Raw Data >Refined)
- Arquitetura de Data Lake AWS
- Processos de carga/ingestão de dados em ambiente AWS
- Stack de Serviços de Data Lake AWS, especialmente Redshift;
- Criação/configuração de cluster de Redshift
- Modelagem de dados e tabelas para Redshift, observando-se distribuição dos dados, performance, utilização de recursos, característica do dado, etc.
- Airflow
- Jenkins
- Git
- Python
- Pyspark
- Amazon EMR
- Amazon SNS
- AWS K8s
- Tópico Kafka
- Glue
- S3
- Banco de dados relacionais
- Banco de dados não relacionais
Principais atividades:
- Criação dos processos de ingestão de dados em Data Lake
- Modelagem de dados de BI / Data Lake (Multidimensional, Star Schema, Snow Flake, Flat, DataMarts)
- Extração de dados e geração de arquivos de saída.
- Carga de dados em base AWS Redshift
- Otimizações para carga e consulta de dados no AWS Redshift (distribuição, ordenação, compressão, concorrência, otimizações, uso de copy/unload, uso de materialized views);
- Análise e otimização dos clusters de Redshift
- Criação dos pipelines de dados utilizando Apache Airflow
- Geração de Relatórios / Dashboards em Tableau
- Data Mapping
- System / Data Discovery - Entendimento dos sistemas de origem.
Engenheiro de Dados Pleno (Presencial)
Forma de Contratação: P.J
Modalidade de trabalho: Presencial - Belo Horizonte/MG
Formação/Especializações/Certificações:
Modalidade de trabalho: Presencial - Belo Horizonte/MG
Formação/Especializações/Certificações:
- Superior Completo nas áreas de TI/Engenharia/Afins
- Certificações AWS e Metodologias Ágeis (Desejável)
- Experiência em projetos ágeis, seguindo metodologias Scrum e Kanban
- Projetos de DW / BI / Data Lake
- Modelagem de dados para BI (Multidimensional, Star Schema, Flat Tables, DataMarts)
- Mapeamento de dados (Origem > Staging/Raw Data >Refined)
- Arquitetura de Data Lake AWS
- Processos de carga/ingestão de dados em ambiente AWS
- Stack de Serviços de Data Lake AWS, especialmente Redshift
- Criação/configuração de cluster de Redshift
- Modelagem de dados e tabelas para Redshift, observando-se distribuição dos dados, performance, utilização de recursos, característica do dado, etc
- Airflow
- Jenkins
- Git
- Python
- Pyspark
- Amazon EMR
- Amazon SNS
- AWS K8s
- Tópico Kafka
- Glue
- S3
- Banco de dados relacionais
- Banco de dados não relacionais
Principais atividades:
- Criação dos processos de ingestão de dados em Data Lake
- Modelagem de dados de BI / Data Lake (Multidimensional, Star Schema, Snow Flake, Flat, DataMarts)
- Extração de dados e geração de arquivos de saída.
- Carga de dados em base AWS Redshift
- Otimizações para carga e consulta de dados no AWS Redshift (distribuição, ordenação, compressão, concorrência, otimizações, uso de copy/unload, uso de materialized views);
- Análise e otimização dos clusters de Redshift
- Criação dos pipelines de dados utilizando Apache Airflow
- Geração de Relatórios / Dashboards em Tableau
- Data Mapping
- System / Data Discovery - Entendimento dos sistemas de origem.
Desenvolver
vai muito além
da tecnologia
Somos responsáveis por uma cultura única que agrega valor para nossos clientes através de squads de Analytics, IT, Cloud e EAM. É esta responsabilidade que facilita o desenvolvimento de soluções sob experimentações constantes centradas em dados e promove transformação cultural, digital e cognitiva, impactando em cada aspecto de uma empresa.
Unindo time, cultura e método, criamos soluções customizadas e escaláveis para inovar em produtos e serviços. Atuamos no desenvolvimento de aplicativos, plataformas e integrações, com conhecimento do negócio, gestão enxuta, AI, IoT, nuvem, blockchain, entre outros.
©2024 Projetas Soluções Integradas. Todos os direitos reservados.