Engenheiro(a) de Dados - Remoto at Capco Singapore
São Paulo, São Paulo, Brazil -
Full Time


Start Date

Immediate

Expiry Date

16 Jan, 26

Salary

0.0

Posted On

18 Oct, 25

Experience

5 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

Data Engineering, Data Ingestion, Data Quality, Python, R, Scala, SQL, Azure Data Factory, Databricks, Data Architecture, Data Storage, Data Transformation, Relational Databases, Oracle, SQLServer, DB2

Industry

Financial Services

Description
SOBRE A CAPCO A Capco é uma consultoria global de tecnologia, e gestão especializada na transformação digital, oferecendo soluções inovadoras e orientadas por dados para um portfólio crescente de mais de 100 clientes globais, entre eles bancos, pagamentos, mercados de capitais, gestão de patrimônio e ativos, seguros e setor de energia. Nos destacamos pela abordagem personalizada, focada na construção de parcerias estratégicas de longo prazo e na aceleração de iniciativas digitais. Nossa expertise ganha vida por meio dos Innovation Labs e da cultura premiada #BeYourselfAtWork, que valoriza a diversidade e o talento. Posição: Engenheiro(a) de Dados Responsabilidade Liderar equipe de injestão de dados; Responsável pela coordenação das atividades dos engenheiros de dados no desenvolvimento de pipelines, garantindo execução eficiente e entregas de alta qualidade. Definir e organizar fluxos de transformação dos dados e estruturas de armazenagem em Deltalake. Apoiar na arquitetura de dados para ingestão, armazenamento e processamento. Assegurar integridade e qualidade dos dados com controles e validações. Estabelecer padrões e melhores práticas, promovendo técnicas modernas. Monitorar e otimizar desempenho e escalabilidade dos fluxos e pipelines. Habilidades e conhecimento Conhecimentos de programação (Python, R ou Scala) e SQL avançados, ferramentas de injestão de dados, plataformas de dados, frameworks e arquitetura de dados; Capacidade de fazer o controle de qualidade de código/scripts de migração/injestão de dados; Ecossistema de Dados em nuvem (Azure Data Factory, Databricks (incluindo MLLib) ); Bancos de dados relacionais, Oracle, SQLServer, DB2 POR QUE CAPCO: Na Capco, promovemos uma cultura inclusiva. Valorizamos a diversidade em todas as suas expressões. Pensamos, em conjunto, sempre em ações diversas de inclusão e de responsabilidade social através de comitês internos geridos pela nossa comunidade, como os grupo de Mulheres, Pessoas Com Deficiência, Pessoas Negras, LGBTQIAPN+, Parentalidade, Gerações, entre outros. Juntar-se à Capco significa ingressar em uma organização comprometida com um ambiente de trabalho inclusivo onde você é incentivado a #BeYourselfAtWork (Ser Você Mesmo no Trabalho). Celebramos a individualidade e reconhecemos que a diversidade e a inclusão, em todas as formas, são fundamentais para o sucesso. Acreditamos que todos trazem algo diferente, por isso adoraríamos saber o que o torna diferente! #LifeAtCapco Juntar-se à Capco significa ingressar em uma organização comprometida com um ambiente de trabalho inclusivo onde você é incentivado a #BeYourselfAtWork (Ser Você Mesmo no Trabalho). Celebramos a individualidade e reconhecemos que a diversidade e a inclusão, em todas as formas, são fundamentais para o sucesso. Acreditamos que todos trazem algo diferente, por isso adoraríamos saber o que o torna diferente! PRÓXIMOS PASSOS: O objetivo da Capco é conduzir um processo flexível e alinhado às necessidades de cada oportunidade e talento. Etapa 1: Entrevista comportamental. Etapa 2: Entrevista técnica. Etapa 3: Conversa com time de Projeto/ Delivery. Etapa 4: Conversa com cliente. Etapa 5: Proposta ou feedback. As etapas do nosso processo seletivo descritas são essenciais para garantir uma avaliação completa e assertiva. Contudo, elas podem ser ajustadas dependendo da senioridade do(a) candidato(a), da área de atuação e do formato do projeto.

How To Apply:

Incase you would like to apply to this job directly from the source, please click here

Responsibilities
Lead a data ingestion team and coordinate the activities of data engineers in developing pipelines. Ensure data integrity and quality through controls and validations while establishing standards and best practices.
Loading...