Certificações Databricks





ABOUT
Data Engineer
Bem-vindo ao meu portfólio! Aqui você encontrará a essência do meu trabalho como engenheiro de dados: transformar desafios em soluções, dados em insights e ideias em resultados.
Seja construindo pipelines robustos, otimizando sistemas ou extraindo valor de grandes volumes de dados, estou sempre à procura de novas maneiras de agregar impacto real aos projetos em que trabalho.
Explore, inspire-se e sinta-se à vontade para entrar em contato!
SKILLS
Areas of Expertise
-
Big Data.
-
ETL/ELT Pipelines.
-
Cloud Computing.
-
Database Management.
-
Data Modeling and Analysis.
-
Data Integration & Transformation.
-
Automation and Process Improvement.
-
Programming & Scripting.
-
Data Orchestration.
-
DevOps & CI/CD.
-
Data Visualization & Reporting.
-
Machine Learning & Analytics.
-
Security in Data Migration
October 2024
Data Engineer /
Fleury / Pardini
-
Criação e manutenção de pipelines de ETL (extração, transformação e carregamento) básicos, seguindo orientações de engenheiros mais experientes.
-
Integração de diferentes fontes de dados estruturados e não estruturados (SQL, NoSQL, APIs) para sistemas de data lake ou data warehouse.
-
Limpeza, transformação e preparação de dados para análises, utilizando ferramentas como Python, Pandas ou SQL.
-
Suporte para cientistas de dados, garantindo que os dados estejam disponíveis e devidamente estruturados para análises e modelagem.
-
Documentação de pipelines de dados, fluxos de trabalho e soluções implementadas, garantindo que outros membros da equipe possam entender e reproduzir o trabalho.
-
Trabalho em conjunto com outros engenheiros, cientistas de dados e analistas para implementar soluções de dados e atender às necessidades do negócio.
-
Escrever e otimizar consultas SQL para acessar, transformar e carregar dados em diferentes plataformas de banco de dados.
-
Acompanhar a execução de pipelines de dados e corrigir falhas sob orientação de engenheiros mais experientes.
Abril 2023
Data Engineer /
Dataside
-
Coletar dados de diferentes fontes (bancos de dados, APIs, arquivos) e garantir sua integridade e consistência.
-
Realizar transformações para limpar e preparar os dados para análise ou uso em pipelines.
-
Construir e manter pipelines de dados para mover e processar dados entre sistemas.
-
Automatizar processos de ETL (Extração, Transformação e Carga) sob supervisão de engenheiros de dados mais experientes.
-
Auxiliar na integração de dados de fontes internas e externas, garantindo que estejam no formato adequado para uso.
-
Suporte na manutenção de bancos de dados relacionais (como SQL Server, MySQL) e não-relacionais (MongoDB, Cassandra).
-
Documentar os pipelines de dados e fluxos de trabalho, detalhando as transformações e manipulações realizadas.
-
Colaborar na migração de dados para plataformas de nuvem como GCP, AWS ou Azure.
-
Auxiliar na configuração de serviços em nuvem como BigQuery, Azure SQL Database, ou armazenamento em cloud (Google Cloud Storage, S3).
-
Automatizar tarefas manuais e repetitivas com scripts em Python, Bash ou ferramentas de automação.
-
Utilizar frameworks de automação para integração contínua (CI/CD) em pipelines de dados.
-
Acompanhar engenheiros de dados seniores em projetos complexos para ganhar experiência e conhecimento.
-
Suportar na criação de datasets para análise e dashboards de visualização.
Dezembro 2022 – Dezembro 2024
Cientista de dados /
Escola DNC
-
Aprender a coletar dados de diversas fontes (públicas, APIs, arquivos CSV, bancos de dados) e realizar a limpeza para remover valores nulos, duplicados ou inconsistentes.
-
Aplicar transformações básicas como normalização, codificação de variáveis categóricas e tratamento de outliers.
-
Utilizar ferramentas como Python (Pandas, Matplotlib, Seaborn) ou R para explorar os dados, gerando gráficos e estatísticas descritivas para entender padrões e distribuições.
-
Identificar correlações e relações entre variáveis para ajudar na formulação de hipóteses.
-
Aprender a manipular grandes volumes de dados utilizando bibliotecas como Pandas, NumPy e SQL.
-
Realizar operações como merge, join, group by e pivot, preparando os dados para análises mais complexas.
-
Experimentar com algoritmos de aprendizado de máquina supervisionado (regressão linear, árvores de decisão, SVM, etc.) e não supervisionado (k-means, clustering, PCA) utilizando bibliotecas como Scikit-learn ou TensorFlow.
-
Aplicar conceitos de estatística básica (média, variância, desvio padrão) e testes de hipótese (teste t, ANOVA) para analisar a significância dos resultados.
WORK EXPERIENCE
EDUCATION
Analise e Desenvolvimento de Sistemas
Universidade Estácio de Sá, Joinville, SC / Graduated:2022
Curso Técnico Integrado - Data Science
Escola DNC, Joinville, SC / Graduated:2024
LET'S WORK TOGETHER
(47) 9 9665-8601
Joinville, Santa Catarina
michellss.py@gmail.com