- ESPECIALISTA TECNICO EM DADOS & IA PLENO ESPECIALISTA TECNICO EM DADOS & IA PLENO
- São Paulo, São Paulo, Brazil São Paulo, São Paulo, Brazil
- hybridhybrid
In brief
To ease reading, the plural masculine form may be used on this page; our vacancies are however directed to persons of all genders
-
test 123 -
-
POLE = VINCI Construction -
Flowers -
-
-
-
-
-
VINCI: Essentials -
Being a responsible employer -
Forging a sustainable world -
Inscrivez-vous à la Dig’IT week ! -
-
-
Join the IT team -
Being a responsible employer -
Life at Vinci -
-
Well-being at work -
Sustainable career paths -
Equal opportunities -
Civic engagement -
Environmental responsibility
ESPECIALISTA TECNICO EM DADOS & IA PLENO
Acelerando a Transição Energética e a Transformação Digital
A Axians oferece soluções e serviços utilizando a tecnologia como ferramenta de transformação e progresso.
Com uma abordagem que valoriza o relacionamento humano e pessoal, a Axians atua no desenvolvimento de infraestruturas on premise e as a Service e soluções digitais, por meio de uma oferta abrangente de soluções e serviços como Cloud Services, Cybersecurity, Data Center, Gestão de dados, IoT, Networking as a Service (NaaS), Device as Service (DaaS), Digital Workspace, Manager Services e Business Continuity.
Junte-se a nós! #VemSerAxians #VenhaTrabalharConosco
Estamos em busca de um(a) Especialista Técnico de Dados & IA com ênfase em engenharia de dados (ingestão, transformação, qualidade, orquestração e governança), atuando como referência técnica frente ao cliente e internamente. Será responsável por desenhar arquiteturas, liderar squads, garantir boas práticas (FinOps/DevOps/MLOps/DataOps) e assegurar que as soluções atendam requisitos funcionais, de segurança, custo, desempenho e escalabilidade.
Principais responsabilidades:
- Liderança técnica e arquitetura de dados
Responsável por desenhar e evoluir arquiteturas modernas de dados (batch e streaming) em ambientes cloud e híbridos, estruturadas em camadas (Bronze/Prata/Ouro), com integrações entre data lakes e data warehouses. Define padrões de modelagem, particionamento, metadados, catálogo e linhagem, além de liderar decisões técnicas considerando custo, performance e complexidade.
- Entrega, qualidade e segurança
Atua como líder técnico de squads de engenharia de dados, garantindo boas práticas de desenvolvimento (code review, pair programming, refinamento técnico) e alta confiabilidade das entregas. Assegura testes automatizados, observabilidade dos pipelines, SLAs/SLOs, reprocessamento de dados e conformidade com requisitos de segurança, privacidade e LGPD.
- DataOps, DevOps e MLOps
Implementa práticas de CI/CD para dados, incluindo infraestrutura como código, versionamento de schemas e automação de deploys. Estrutura monitoramento de qualidade e governança de dados e colabora com times de ciência de dados na operacionalização de modelos, cobrindo feature store, versionamento, deployment e monitoramento de drift.
- Gestão técnica e comunicação com stakeholders
Atua como principal referência técnica junto a clientes e times internos, conduzindo discovery, workshops, desenho de soluções, handover e sustentação. Produz documentação técnica clara (arquitetura, padrões, playbooks), apoia estimativas e planejamento, gerencia riscos técnicos e garante alinhamento contínuo com PMs e POs.
Competências
Comportamentais:
- Liderança técnica servidora (ensinar, desbloquear e elevar padrão de qualidade).
- Comunicação clara com stakeholders técnicos e de negócio; capacidade de storytelling com dados.
- Pensamento sistêmico e orientação a valor de negócio.
- Gestão de riscos e negociação de escopo/prioridades.
- Mentalidade de produto (observabilidade, confiabilidade, custo e evolução contínua).
Técnicas:
- Linguagens e frameworks de transformação de dados: Domínio de Python (PySpark, Pandas), SQL avançado (CTEs, window functions) e Scala, com experiência prática em Spark/Databricks, dbt e Apache Beam para pipelines analíticos e de larga escala.
- Orquestração, DataOps e automação: Experiência com ferramentas de orquestração como Airflow, Databricks Jobs e pipelines nativos das principais clouds (Azure, AWS e GCP). Forte atuação em Git, CI/CD e Infraestrutura como Código (Terraform, Bicep, CloudFormation).
- Armazenamento, processamento e governança de dados: Sólido conhecimento em Data Lakes (S3, ADLS, GCS) e Data Warehouses (Redshift, BigQuery, Snowflake, Synapse), além de ferramentas de catálogo, metadados e linhagem como Purview, Glue Catalog, Dataplex, Collibra ou Alation.
- Streaming, integração e ingestão: Atuação com plataformas de streaming (Kafka, Kinesis, Event Hubs, Pub/Sub) e CDC (Debezium, DMS, Striim), bem como ferramentas de ETL/ELT como Fivetran, Stitch, Matillion ou Informatica (diferencial).
- Qualidade, testes e observabilidade: Implementação de testes de dados, monitoramento de qualidade e linhagem utilizando Great Expectations, Soda, Monte Carlo e OpenLineage, além de observabilidade com Prometheus/Grafana e ferramentas nativas das clouds.
- Segurança e conformidade: Experiência em IAM (RBAC/ABAC), criptografia e gestão de chaves (KMS/CMK), mascaramento/tokenização de dados, redes privadas (VPC/VNet, private endpoints) e aderência à LGPD.
- MLOps (em colaboração com Data Science): Conhecimento prático em MLflow, Vertex AI, SageMaker ou Azure ML, cobrindo pipelines, registry de modelos, feature store, deployment e monitoramento.
- Consumo e camada semântica (BI): Noções sólidas de Power BI, Looker e Tableau, com foco em modelagem semântica, performance e segurança (row-level security).
Experiências desejáveis:
- 4–6 anos totais em dados, com 3+ anos em engenharia de dados e pelo menos 1–2 anos liderando tecnicamente (referência técnica, mentoria, code review, desenho de solução).
- Vivência prática com data lakes/warehouses, pipelines batch e streaming, orquestração e qualidade de dados.
- Experiência em cloud pública (AWS, Azure e/ou GCP) e ambientes híbridos (conectividade, segurança, custos).
- Projeto(s) com observabilidade de dados (logs, métricas, alertas), teste de dados e CI/CD.
- Interação direta com áreas de negócio e equipes multidisciplinares (engenharia, ciência de dados, segurança, infraestrutura).
Certificações :
- Cloud: AWS (SAA ou Data Engineer), Azure (DP-203) ou GCP (Professional Data Engineer).
- Plataformas de dados: Databricks (Associate/Professional), dbt (Fundamentals / Analytics Engineer).
- Governança e qualidade: Collibra, Purview/Dataplex, Great Expectations.
- DevOps / IaC: Terraform Associate, Azure DevOps (AZ-400 – opcional).
- Privacidade e segurança: Certificações em LGPD e proteção de dados (ex.: EXIN).
Formação
- Graduação em TI ou áreas correlatas (completa)
- Inglês Intermediário
Similar Offers
There are no related jobs at the moment. View All of Our Available Opportunities
Warning to applicants about false job offers and fraudulent proposals
The VINCI group wishes to warn applicants about the online publication of false job offers for contracts abroad in the name of VINCI group companies. The authors of these offers fraudulently use the corporate names, brands and logos of VINCI group companies to deceive applicants, inducing them to reveal personal information and to pay money to obtain alleged services. Under no circumstances do VINCI group companies ask for candidates' bank details or any payment of money as part of their recruitment process. We therefore strongly recommend that applicants check the authenticity of job offers before responding to them.