C
Ciandt2d ago
New
New
[Job-29175] Engenheiro(a) de Dados SENIOR, Brasil
OtherEngenheiro
0 views0 saves0 applied
Quick Summary
Overview
Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 8,000 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1,000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Technical Tools
OtherEngenheiro
Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 8,000 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1,000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.
Sobre o Desafio:
O projeto consiste na migração e modernização de um legado massivo (baseado em Azure/Databricks) para uma nova arquitetura no Google Cloud Platform (GCP).
Você atuará na construção de uma fundação de dados moderna, seguindo princípios de Data Mesh, arquitetura medalhão (Raw/Silver/Gold) e forte governança, garantindo a desativação do legado e a habilitação de novas capacidades de IA e Analytics.
Você atuará na construção de uma fundação de dados moderna, seguindo princípios de Data Mesh, arquitetura medalhão (Raw/Silver/Gold) e forte governança, garantindo a desativação do legado e a habilitação de novas capacidades de IA e Analytics.
- Analisar e migrar pipelines e notebooks (Spark/Databricks)
- Refatorar ou reescrever processos para: SQL / Dataform e Dataflow
- Criar transformações no BigQuery + Dataform
- Construir camadas: Silver (Trusted) e Gold
- Garantir qualidade, deduplicação e padronização
- Implementar ingestão com:
- Dataflow (Apache Beam) para eventos (Kafka/Event Hubs)
- Datastream (CDC)
- Trabalhar com a persistência de dados na camada Raw utilizando tabelas Iceberg gerenciadas pelo BigLake.
- Provisionar recursos com Terraform (IaC)
- Gerenciar pipelines com CI/CD (GitHub Actions)
- Seguir modelo de Ingestion Factory e repositórios por domínio
- Implementar testes no Dataform
- Garantir:
- Catalogação e linhagem (Dataplex)
- Compartilhamento seguro (Analytics Hub)
Requisitos Obrigatórios:
- SQL avançado (preferencialmente BigQuery)
- Experiência com GCP: BigQuery, GCS, Dataflow, Cloud Composer (Airflow)
- Python + Apache Spark
- Conhecimento em:
- Data Lakehouse
- Modelagem de dados
- Particionamento
- Formatos (Parquet, Avro, Iceberg)
- Experiência com: Git e CI/CD
- Dataform ou DBT
- Experiência com Databricks
- Terraform (IaC)
- Streaming e eventos (Kafka / Event Hubs)
- Governança e segurança: Dataplex, IAM, VPC Service Controls
- Ambiente com alto volume de dados (petabytes)
- Migração de milhares de objetos
- Uso de tecnologias modernas: BigLake, Analytics Hub, Gemini
- Atuação em Data Mesh com domínios bem definidos
#LI-LL1
Location & Eligibility
Where is the job
Brazil
Remote within one country
Who can apply
BR
Listing Details
- Posted
- May 4, 2026
- First seen
- May 5, 2026
- Last seen
- May 6, 2026
Posting Health
- Days active
- 1
- Repost count
- 0
- Trust Level
- 68%
- Scored at
- May 6, 2026
Signal breakdown
freshnesssource trustcontent trustemployer trust
External application · ~5 min on Ciandt's site
Please let Ciandt know you found this job on Jobera.
4 other jobs at Ciandt
View all →Explore open roles at Ciandt.
Browse Similar Jobs
Newsletter
Stay ahead of the market
Get the latest job openings, salary trends, and hiring insights delivered to your inbox every week.
A
B
C
D
No spam. Unsubscribe at any time.
C
[Job-29175] Engenheiro(a) de Dados SENIOR, Brasil