Yasmim Abrahão

Engenheira de Dados

Tenho experiência em soluções de engenharia de dados, pipelines ETL/ELT, Data Lakes, Data Warehouses e Big Data.

Sobre Mim

Foto de perfil

Yasmim Abrahão

Engenheira de dados

Sou apaixonada por tecnologia, sempre em busca de aprender mais e transformar dados em soluções inteligentes. Atualmente estudo Sistemas de Computação na Universidade Federal Fluminense e, desde cedo, percebi o poder dos dados em moldar decisões. Atualmente, atuo como Assistente de BI na Licks Attorneys, onde crio dashboards interativos em Power BI e desenvolvo pipelines de dados em Python, conectando e manipulando informações com SQL e APIs. Meu maior objetivo é trabalhar como Engenheira de Dados, aplicando tudo o que aprendi em integrações e automações, ajudando empresas a escalar suas operações e tomar decisões mais estratégicas.

Download CV

Certificações

AWS Certified Solutions Architect – Associate

Amazon Web Services

Certificação que valida a capacidade de projetar arquiteturas na AWS que sejam seguras, resilientes, de alto desempenho e otimizadas em custo, seguindo as melhores práticas do AWS Well-Architected Framework.

AWS Certified Cloud Practitioner

Amazon Web Services

Certificação que valida fluência em computação em nuvem e conhecimento básico da AWS.

Certification for Apache Airflow Fundamentals

Astronomer

Certificação que valida o conhecimento em Apache Airflow para a criação e monitoramento de DAGs. Abrange a compreensão dos principais componentes do Airflow, o ciclo de vida das tarefas e a construção de pipelines de dados. Além disso, destaca as melhores práticas e a tomada de decisões estratégicas com base em diferentes arquiteturas.

Minhas Habilidades

SQL

Experiência avançada com SQL, incluindo otimização de consultas complexas, modelagem dimensional e análise de dados em ambientes de data warehouse.

Python

Desenvolvimento de scripts para automação, ETL e análise de dados com bibliotecas como BeautifulSoup, Streamlit, Scrappy e Pandas.

Apache Airflow

Orquestração e agendamento de pipelines de dados com Apache Airflow, incluindo desenvolvimento de DAGs, sensores e operadores personalizados para fluxos de dados complexos.

AWS

Experiência com serviços de dados da AWS como Redshift, S3, Glue, Athena, Lambda e criação de arquiteturas de dados escaláveis e seguras na nuvem.

Microsoft Fabric

Experiência com os serviços de dados do Microsoft Fabric, incluindo OneLake, Data Factory, Synapse, Power BI, Jupyter Notebooks e pipelines de dados. Habilidade na criação de arquiteturas escaláveis e seguras na nuvem, integrando diferentes workloads para análise, engenharia e ciência de dados.

Experiência

2024 - Presente

Analista de BI

Licks Attorneys

  • Responsável pela criação de dashboards interativos utilizando Power BI.
  • Desenvolvimento de pipelines em Python para aquisição e tratamento de dados, armazenados em um Lakehouse.
  • Execução de requisições à API do Power BI para obter dados relevantes, além de manipulações com SQL
2022 - 2024

Estagiária de BI

Licks Attorneys

  • Responsável pela criação de dashboards em Power BI, fornecendo insights sobre os dados.
  • Realização de conexões com SQL Server para a obtenção de dados.
  • Manipulação de URLs para extração de dados de APIs.
2018 - 2021

Monitora

Prefeitura Municipal de Nova Iguaçu

  • Responsável por ensinar informática para crianças e adultos.
  • Atuação na área de programação de jogos, promovendo a inclusão digital.
2018 - 2019

Monitora

CEFET-RJ

  • Auxiliava o professor na disciplina de desenvolvimento de aplicações, apoiando alunos com dúvidas sobre desenvolvimento web.
  • Contribuía para um ambiente de aprendizado colaborativo, esclarecendo conceitos e promovendo a compreensão dos conteúdos abordados.

Portfólio

Todos
AWS
Orquestração
Projeto ETL

Pipeline de extração e carregamento de dados

Pipeline de dados, utilizando Meltano para extração, Apache Airflow para orquestração e PostgreSQL como banco de dados, garantindo automação, rastreabilidade e reprocessamento de dados..

Ver Detalhes
Query Lakehouse na AWS

Query Lakehouse na AWS

Script de Python para extração de dados de paises da API Rest Countries, após isso ele joga no AWS S3 que serve como LakeHouse e utiliza o AWS Glue para catalogar os dados e por fim utiliza o Athena para fazer consultas no S3 pelo catálogo do Glue.

Ver Detalhes
Notificador de cryptomoeda na AWS

Notificador de cryptomoeda na AWS

Este projeto implementa um notificador de criptomoedas utilizando diversos serviços da AWS, com foco em automação e escalabilidade. O fluxo principal consiste em uma função Lambda que, a cada 2 horas, realiza uma requisição à API CoinGecko para obter dados sobre criptomoedas e, em seguida, envia esses dados por e-mail utilizando o Amazon SNS.

Ver Detalhes
Open Weather Data Pipeline na AWS

Open Weather Data Pipeline na AWS

Este projeto consiste em um script Python que extrai dados meteorológicos da API Open Weather, processa essas informações e armazena o resultado em um arquivo CSV dentro de um bucket Amazon S3. A orquestração de todo o processo é realizada com Apache Airflow.

Ver Detalhes