Sobre mim:
Meu nome é Anderson, moro em Brasília e sou formado em Engenharia da Computação, com especialização em Ciência de Dados e Inteligência Artificial. Possuo mais de três anos de experiência como Engenheiro de Dados, atuando em projetos de grande escala voltados para a ingestão, processamento e análise de dados. Atualmente, trabalho no Banco do Brasil Tecnologia e Serviços, onde atuo na implementação e otimização de pipelines de dados na nuvem Azure, utilizando tecnologias como Databricks, Azure Data Factory, Azure Synapse Analytics e armazenamento no Azure Data Lake.
Tenho experiência consolidada na construção e orquestração de pipelines eficientes para processamento de dados estruturados e semiestruturados, garantindo escalabilidade, qualidade e governança. No dia a dia, utilizo PySpark para manipulação de grandes volumes de dados e SQL para consultas e modelagem de tabelas otimizadas. Além disso, aplico boas práticas de DataOps para garantir integração contínua (CI/CD), versionamento e monitoramento dos fluxos de dados.
Antes de ingressar no Banco do Brasil Tecnologia e Serviços, atuei em uma empresa de professional services prestando consultoria para uma grande varejista. Fui responsável por desenvolver soluções de ingestão e tratamento de dados para produtos financeiros, criando indicadores estratégicos de performance relacionados a cartões, seguros e empréstimos. Nesse contexto, trabalhei com Google Cloud Platform (GCP), utilizando BigQuery para análise e armazenamento de dados, além de Apache NiFi para ingestão e Airflow para orquestração. Também tive contato com Zeppelin para exploração de dados e desenvolvimento de notebooks interativos.
Minha experiência inclui o uso de ferramentas de visualização de dados como Power BI, Looker e Superset, além de um forte domínio em Git para versionamento de código. Já trabalhei com repositórios gerenciados no Azure DevOps e Bitbucket, garantindo governança e rastreabilidade nas implementações.
Tenho paixão por engenharia de dados, otimização de processos e arquitetura de soluções escaláveis. Busco constantemente aprimorar minhas habilidades e acompanhar as inovações do setor para desenvolver soluções cada vez mais eficientes e estratégicas.
Resumo da experiência profissional:
Tutor Tecnologia Google For Education - UniCeub (2018 - 2019)
Atuei como tutor de tecnologia educacional, auxiliando professores, alunos e administradores na implementação eficaz das ferramentas do Google for Education. Minhas principais responsabilidades incluíram suporte técnico, treinamento em aplicativos como Google Classroom, Drive e Docs, além da orientação sobre as melhores práticas para otimizar o aprendizado digital. Também contribuí para a adaptação de metodologias pedagógicas ao ambiente tecnológico, promovendo a transformação digital no ensino superior.
Engenheiro de Dados - 2RPNET (2021 - 2024)
Atuei como engenheiro de dados, sendo responsável pelo desenvolvimento e manutenção de pipelines robustos para ingestão, processamento e análise de dados em larga escala. Trabalhei com tecnologias como PySpark, Apache Airflow, SQL e Google Cloud Platform (GCP), utilizando BigQuery para armazenamento e consultas otimizadas. Minha experiência incluiu modelagem de dados eficiente, implementação de arquiteturas escaláveis e automação de processos para garantir a qualidade e governança dos dados.
Além disso, gerenciei a segurança, integridade e confiabilidade dos dados, aplicando boas práticas de DataOps e CI/CD para versionamento e deploy contínuo de pipelines. Participei de projetos estratégicos, como a migração de dados do HDFS para GCP, utilizando Google Composer para integração com o Apache Airflow. Também trabalhei com a ingestão de dados via APIs, utilizando Apache NiFi e integração com plataformas de armazenamento como AWS S3 e Google Cloud Storage.
Minha atuação teve impacto direto na geração de insights estratégicos para o negócio, auxiliando na tomada de decisões baseadas em dados para diferentes áreas, incluindo produtos financeiros, varejo e serviços digitais.
Engenheiro de Dados - Banco do Brasil Tecnologia e Serviços (2024 - Atual)
Atualmente, atuo como engenheiro de dados no Banco do Brasil Tecnologia e Serviços, trabalhando na implementação e otimização de pipelines de dados na nuvem Azure. Minha atuação envolve o uso de Databricks, Azure Data Factory e Azure Synapse Analytics para criar soluções escaláveis e eficientes para ingestão, processamento e armazenamento de dados.
Sou responsável por desenvolver arquiteturas robustas para grandes volumes de dados, garantindo governança, segurança e qualidade. Utilizo PySpark e SQL para manipulação e análise de dados, além de aplicar práticas de DataOps para integração contínua, automação e versionamento de código.
Minha experiência inclui a modelagem de dados otimizada para o Azure Data Lake, garantindo eficiência e desempenho na análise de dados. Além disso, colaboro com equipes multidisciplinares para estruturar soluções estratégicas para o Banco do Brasil, contribuindo para a modernização e inovação da infraestrutura de dados da instituição.