Especialista de Engenharia de Dados - Afirmativa para pessoas com deficiênc at Experian
São Carlos, São Paulo, Brazil -
Full Time


Start Date

Immediate

Expiry Date

10 Feb, 26

Salary

0.0

Posted On

12 Nov, 25

Experience

2 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

Python, Scala, Apache Spark, Data Lake, Lakehouse, Data Modeling, ETL, ELT, Data Pipelines, Airflow, Cloud Environments, Versioning, Testing, Automation, AWS, Azure, GCP

Industry

Information Services

Description
Company Description A Serasa Experian é a primeira e a maior Datatech do Brasil. Líder em soluções de inteligência para análise de riscos e oportunidades, com foco nas jornadas de crédito, autenticação e prevenção à fraude. Com tecnologia de ponta, inovação e os melhores talentos, transforma a incerteza do risco na melhor decisão, ajudando pessoas a realizarem seus sonhos e empresas de todos os portes e segmentos a prosperarem. Temos 22.000 pessoas operando em 32 países e a cada dia estamos investindo em novas tecnologias, profissionais talentosos e inovação para ajudar todos os clientes a maximizarem cada oportunidade. Com sede corporativa em Dublin, Irlanda, a Experian está listada na Bolsa de Valores de Londres (EXPN) e compõe o índice FTSE 100. Job Description Principais Entregas Desenvolver e manter pipelines de dados escaláveis utilizando Scala e Apache Spark, com foco em performance e reutilização. Estruturar e evoluir a arquitetura medalhão (bronze, silver, gold), garantindo governança, rastreabilidade e qualidade dos dados. Implementar soluções de ingestão, transformação e disponibilização de dados em ambientes cloud e lakehouse. Definir e aplicar boas práticas de engenharia de dados, incluindo versionamento, testes automatizados e CI/CD. Apoiar decisões técnicas e arquiteturais junto aos times de engenharia e produto. Como será o seu dia a dia Atuar em squads multidisciplinares, colaborando com engenheiros, analistas e cientistas de dados. Participar de rituais ágeis e contribuir com a evolução contínua dos processos e ferramentas. Monitorar e otimizar pipelines em produção, garantindo confiabilidade e eficiência. Trabalhar com ferramentas como Airflow, Delta Lake, Iceberg, e ambiente AWS. Investigar e propor melhorias em arquitetura, performance e segurança dos dados. Qualifications Experiência sólida com Python, Scala e Apache Spark em ambientes distribuídos. Domínio de arquitetura medalhão e conceitos de data lake / lakehouse. Conhecimento avançado em modelagem de dados, ETL/ELT, e pipelines de dados. Vivência com ferramentas de orquestração como Airflow ou similares. Experiência com ambientes cloud (Azure, AWS ou GCP). Práticas de engenharia como versionamento, testes e automação. Idioma: Inglês - Técnico Additional Information A Serasa Experian é muito mais do que você imagina. Com o propósito de criar um futuro melhor, ampliando oportunidades para pessoas e empresas, no Brasil somos mais de 4 mil pessoas que atuam em diversos times e especialidades. Aqui, cada conhecimento e diversidade se complementa e você pode trabalhar no que mais ama, estamos comprometidos a construir uma cultura inclusiva e um ambiente no qual pessoas possam equilibrar a carreira com seus compromissos e interesses pessoais, prezando pelo bem-estar. A gente se dedica muito em ser uma das melhores e mais inovadoras empresas para se trabalhar do país, possibilitando experiências e carreiras incríveis para nossas pessoas. Nossa forte abordagem de pessoas em primeiro lugar é reconhecida externamente por meio de diversas certificações de mercado: fomos premiados pelo Great Place To Work™ em 24 países e pela certificação internacional Top Employers, além de sermos reconhecidos como uma das melhores empresas para jovens profissionais e contarmos com uma avaliação de 4,6 no Glassdoor. Cada reconhecimento nos indica que estamos no caminho certo, proporcionando um ambiente de trabalho cada vez melhor para nossos talentos. #LI-REMOTE Experian Careers - Creating a better tomorrow together Find out what its like to work for Experian by clicking here
Responsibilities
Develop and maintain scalable data pipelines using Scala and Apache Spark, focusing on performance and reusability. Structure and evolve the medallion architecture, ensuring governance, traceability, and data quality.
Loading...