Criação de Página Estática de Perfil Profissional
Este projeto visa a criação de uma página estática para a apresentação do meu perfil profissional, utilizando infraestrutura em nuvem da AWS.
Foram usadas diversas tecnologias e serviços: Amazon S3 para hospedagem dos arquivos estáticos, CloudFront para distribuição de conteúdo com alta disponibilidade e baixa latência,
Route 53 para gerenciamento de domínio e ACM (AWS Certificate Manager) para segurança SSL/TLS. As páginas foram criadas com HTML, CSS e JavaScript, empregando as melhores práticas
de desenvolvimento web. Além disso, utilizei Inteligência Artificial durante o desenvolvimento para auxiliar na criação do código e realizar a tradução do conteúdo para o inglês,
permitindo um alcance mais global.
Tecnologias Utilizadas: AWS S3, CloudFront, Route 53, ACM, HTML, CSS, JavaScript, IA para desenvolvimento e tradução.
Github: https://github.com/ttattinho/professional-profile-static-page
Integração do Ambiente Azure com Sede da Empresa
Neste projeto, realizamos a interligação do ambiente Azure com a sede da empresa através do Virtual Gateway para VPNs site-to-site com BGP em um modelo ativo-ativo, cruzando os links com firewalls Barracuda e configurando pesos nos links de contingência.
Foi criada uma nova instância de ADDS com Windows Server 2025 no Azure, adicionamos os serviço na floresta elevando o nível de operação. Migramos o EntraID Connect para a nova instância de ADDS e propagamos todas as redes do azure via BGP também para outras redes de datacenters
parceiros, chegando até as redes do nosso outro ambiente de cloud no GCP. No servidor de AD no Azure, configuramos o gateway de dados do Power BI para que os dataflows pudessem acessar endpoints privados como bancos de dados, compartilhamentos Samba, Trino, MongoDB, entre outros.
Toda a infraestrutura de VPN foi devidamente etiquetada e alocada em grupos de recursos separados, e conectada por peering às VPNs.
Tecnologias Utilizadas: Azure, Azure Virtual Gateway, BGP, Barracuda Firewall, ADDS, Windows Server 2025, Azure AD Connect, Power BI, GCP.
Automação e Monitoramento do Ambiente Crítico de QlikView
O QlikView era o motor dos principais produtos da empresa, acessado diariamente por clientes externos para geração de relatórios e dashboards críticos de negócio.
A infraestrutura estava baseada em um cluster de failover Windows Server com 3 nós conectado a um storage compartilhado.
Embora fosse projetado para alta disponibilidade, na prática este ambiente legado apresentava diversas fragilidades.
As principais dores incluíam: processos manuais de manutenção preventiva e corretiva, validações demoradas de cluster e balanceamento de carga, dificuldades no
restabelecimento de serviços em caso de falhas e monitoramento limitado, que muitas vezes só identificava problemas após reclamações de clientes. Isso exigia
plantões constantes (inclusive em fins de semana), tornando o QlikView o elo mais frágil da operação e gerando alto risco de indisponibilidade para os clientes.
Foram tentadas soluções intermediárias como checklists manuais e scripts isolados em PowerShell e Bash, mas o ganho foi limitado.
A virada de chave veio com a implementação de um ecossistema de automação e monitoramento, orquestrado pelo Rundeck, rodando em um servidor Ubuntu no GCP conectado via Interconnect aos datacenters e parceiros.
Nesse ambiente foram criados pipelines agendados e manuais, utilizando múltiplas tecnologias: Bash, Python, PowerShell,
Node.js com Puppeteer, Ansible (playbooks e ad-hoc via SSH e WinRM). Entre as automações implementadas estão:
- Reboots monitorados e forçados via iDRAC em caso de falha.
- Movimentação automática de Cluster Shared Volumes (CSV) para manter continuidade.
- Subida e validação de serviços pós-reboot.
- Validação de integridade via endpoints de health do QlikView Server.
- Testes de balanceamento de carga com tráfego artificial gerado via Puppeteer.
- Error handlers encadeados para reinício de serviços web e recuperação de cluster.
- Monitoramento contínuo em Python, validando carregamento de produtos e disparando alertas via e-mail e Microsoft Teams.
- Reconhecimento de falhas conhecidas por hash de prints de erro e execução de correções automáticas.
Além disso, foi implementado uso de cofre de senhas no Rundeck para proteção de credenciais e chaves, e
variáveis declaradas nos Jobs, garantindo reaproveitamento de código e maior padronização. Todos os scripts incluíam timeouts, retries e
mecanismos antifalha.
Os logs e status dos Jobs foram integrados a pipelines de dados no Power BI Service, via Gateway, criando dashboards de falhas e disponibilidade em tempo real.
O código foi versionado no Azure DevOps, com documentação em Markdown para cada Job e script.
O resultado foi transformador: a disponibilidade saltou para 99,997%, eliminamos plantões manuais e ganhamos previsibilidade e visibilidade total
sobre o ambiente. O time pôde focar em novos projetos estratégicos, enquanto o ambiente legado de QlikView deixou de ser um gargalo crítico.
O sucesso foi tão grande que a mesma abordagem foi expandida para os servidores de QlikSense, também com melhorias significativas.
Tecnologias Utilizadas: Rundeck, Ubuntu Server (GCP), Bash, Python, PowerShell, Node.js, Puppeteer, Ansible (SSH/WinRM), iDRAC, Power BI, Azure DevOps.
Expansão de Automações para Ambientes e Serviços Corporativos
Com o sucesso do projeto de automação no ambiente legado de QlikView, decidimos expandir a abordagem para todos os demais ambientes e serviços críticos da empresa.
O servidor Ubuntu com Rundeck, hospedado no GCP e conectado ao projeto de Interconnect com BGP, já possuía acesso a todos os ambientes
corporativos, o que permitiu centralizar e padronizar a execução das automações.
A primeira frente foi o monitoramento de jobs de SQL Server, que frequentemente apresentavam travamentos. Foram criados pipelines que
validavam a execução de cada job e, em caso de detecção de travamento, aplicavam automaticamente as correções baseadas em erros previamente mapeados.
Além da correção gerava a notificação via email e no canal de teams entre a equipe de IT Operations e de Operações que no caso era quem era impactada
quando ocorriam os travamentos desses jobs em específico.
Também foi implementado monitoramento ativo de serviços de FTP e SFTP, incluindo testes de acesso, upload, escrita e conexão, garantindo
que problemas fossem identificados antes de impactarem clientes e parceiros.
Outro marco importante foi a criação de jobs de facilities que automatizaram tarefas operacionais do dia a dia antes executadas manualmente
por estagiários ou analistas juniores. Isso evitou a necessidade de liberar acessos críticos a portais como GCP, Cloudflare e DNS interno.
Os jobs solicitavam variáveis de entrada, validavam sintaxe e coerência dos dados, e então executavam a tarefa de forma controlada. Exemplos:
- Download automatizado de arquivos em buckets do GCP.
- Cadastro de DNS na Cloudflare, com teste de propagação e geração de evidência para inclusão em chamados.
- Cadastro de DNS interno, com logs e auditoria.
Para garantir segurança, foram aplicadas ACLs de execução baseadas em perfis de AD. Os colaboradores, ao acessarem via LDAP,
visualizavam apenas os jobs permitidos para seu grupo, e ainda assim só conseguiam executá-los se os dados de entrada fossem válidos.
A expansão também incluiu processos integrados ao Power BI Service: atualizações de dataflows e datasets via API do Power Automate,
acionando steps de pipelines de forma automatizada. Além disso, foram criados jobs de limpeza de dados em servidores,
backups automáticos de logs para buckets no GCP e muitas outras automações que reduziram esforço manual e aumentaram a confiabilidade da operação.
Assim, a empresa evoluiu de um cenário com processos manuais e descentralizados para um ambiente altamente automatizado, com padronização, segurança,
rastreabilidade e escalabilidade. O ganho foi não apenas de disponibilidade e tempo de resposta, mas também de cultura, trazendo automação como pilar central da operação.
Tecnologias Utilizadas: Rundeck, Ubuntu Server (GCP), Bash, Python, PowerShell, Node.js, Puppeteer, Ansible, SQL Server, FTP/SFTP,
Cloudflare API, GCP Storage, AD/LDAP, Power Automate, Power BI Service.
Migração Lift-and-Shift para Cloud (Hyper-V → GCP/Azure)
Projeto de descontinuação do ambiente on-premises em Hyper-V e migração lift-and-shift dos principais servidores para a nuvem,
mantendo compatibilidade de aplicações e configurando a nova infraestrutura com IP estático, snapshots automáticos e integrações preservadas.
Escopo principal: Rundeck e Bookstack (KB) migrados para GCP; OCS Inventory NG migrado para Azure.
Planejamento e Preparação
- Levantamento de servidores, dependências e mapeamento de aplicações no Hyper-V.
- Definição de arquitetura de rede e endereço IP estático por workload nos destinos.
- Criação de buckets GCP específicos para staging das imagens durante a migração.
- Orçamentação completa (armazenamento, VMs, tráfego, licenças) e apresentação às áreas responsáveis.
Execução e Conversões
- Exportação dos VHDX do Hyper-V e upload para os buckets dos projetos de migração.
- Conversão de discos para os formatos exigidos pelos destinos (ex.: VHDX → RAW/IMG → compatível GCE/Azure).
- Provisionamento de VMs no Google Compute Engine (Rundeck/Bookstack) e Azure (OCS Inventory NG), com IPs estáticos e regras de firewall.
- Devido à incompatibilidade da versão do Linux do servidor OCS, foi realizada uma reimplantação da VM Linux e migração do MariaDB para o novo ambiente.
Configuração e Testes
- Validações de conectividade (interna/externa), dependências de banco de dados e integrações.
- Refatoração de pipelines de dados para os novos IPs/hosts, garantindo acesso a bancos e serviços dependentes.
- Atualização de DNS (Cloudflare e interno) para apontar aos novos IPs e desligamento controlado dos servidores antigos.
Ajustes de Serviço e Operação
- Atualizações de SO e pacotes das aplicações durante a migração.
- Instalação do Webmin em todas as instâncias Linux para administração via navegador.
- Configuração de snapshots automáticos para recuperação rápida.
Resultados
- Consolidação em cloud com alta disponibilidade e recuperação simplificada via snapshots.
- Modernização do parque tecnológico e eliminação da dependência de hardware local.
- Padronização e gestão simplificada via Webmin e pipeline de dados ajustadas.
- OCS Inventory NG reimplantado e funcionando plenamente no Azure com MariaDB migrado.
Tecnologias Utilizadas: Hyper-V, VHDX, Google Cloud Platform (Compute Engine, Cloud Storage), Microsoft Azure, IP estático, Cloudflare DNS, DNS interno,
Webmin, Linux, Windows Server, LDAP/AD, Rundeck, Bookstack, OCS Inventory NG, MariaDB, snapshots automáticos, pipelines de dados.
Dashboard Gerencial de Monitoramento de Tempo de Resposta de Emails — Área Financeira
Este projeto nasceu da necessidade da área financeira de monitorar e gerenciar o tempo de resposta dos emails enviados para o endereço padrão da equipe.
O objetivo era fornecer ao gestor da área uma visão clara sobre SLA, eficiência e atendimento por cliente.
Planejamento e Concepção
- Criação de um app no Azure EntraID para autenticação segura e permissões de acesso à API do Exchange.
- Liberação de permissões necessárias para leitura de metadados de emails, sem expor conteúdos sensíveis.
- Definição das métricas gerenciais: tempo de resposta, SLA, dia útil, feriados, visão por cliente e por email.
ETL e Processamento de Dados
- Conexão via API do Exchange para extrair metadados de emails (remetente, destinatário, horário de envio e recebimento, assunto, etc.).
- Desenvolvimento de dataflows no Power BI Service para realizar ETL: filtrar, limpar e transformar os dados para análises relevantes.
- Aplicação de regras para cálculo de tempo de resposta considerando dias úteis, feriados e SLA definidos pelo gestor.
Dashboard Gerencial
- Criação de dashboards interativos no Power BI Service, com gráficos, listas detalhadas de emails e indicadores chave (KPI) de performance.
- Filtros dinâmicos por cliente, email e período.
- Atualização automática via agendamento, garantindo dados sempre atualizados sem intervenção manual.
- Métricas calculadas: tempo médio de resposta, emails pendentes, emails respondidos dentro do SLA, desempenho individual por responsável.
Resultados e Benefícios
- Visibilidade completa do desempenho da equipe financeira no atendimento de emails.
- Redução do tempo de análise e monitoramento manual pelo gestor.
- Facilidade de identificação de gargalos e clientes com maiores demandas.
- Projeto entregue com sucesso, gerando feedback positivo da área e aumento da confiança nas decisões estratégicas baseadas em dados.
Tecnologias Utilizadas: Azure EntraID, Exchange Online API, Power BI Service, Dataflows Power BI, ETL, dashboards interativos, cálculo de SLA e métricas gerenciais.
Dashboard Comercial e de Negociações — Integração RD Station
Projeto solicitado pela área comercial para suprir lacunas de análise e visões específicas que não eram possíveis diretamente pelo RD Station.
O objetivo era gerar insights estratégicos para as áreas Comercial, Financeira e Diretoria, centralizando as informações em dashboards gerenciais no Power BI Service.
Planejamento e Concepção
- Mapeamento de endpoints da API do RD Station relevantes para vendas, negociações e oportunidades.
- Criação de controles para evitar rate limits e excesso de requisições, garantindo estabilidade do processo ETL.
- Desenvolvimento de um dashboard de monitoramento de API com alertas sobre proximidade de limites de requisições, permitindo ação preventiva.
- Separação de dataflows dimensão e dataflows fato para organização e unificação posterior no dataset.
ETL e Processamento de Dados
- Processo de ETL avançado para limpar, transformar e unificar dados, criando medidas e indicadores complexos.
- Captura histórica das negociações via Power Automate, consultando semanalmente a API para obter estados anteriores.
- Armazenamento em arquivos semi-estruturados JSON no SharePoint, com controle de acesso, evitando complexidade de bancos NoSQL.
- Mashup dentro dos dataflows do Power BI Service para consolidar dados históricos e atuais, permitindo análise de alterações de datas, valores e negociações.
Dashboard e Aplicativo Power BI
- Criação de dashboards interativos com KPIs, gráficos e indicadores avançados.
- Filtros detalhados por vendedor, cliente, negociações perdidas, períodos e outros critérios relevantes.
- Aplicativo dentro do Power BI Service centralizando todas as análises da área comercial.
- Atualizações automatizadas via Power Automate, garantindo que dados de servidores compartilhados do Azure fossem atualizados regularmente, mesmo diante de instabilidades.
Resultados e Benefícios
- Dashboard se tornou referência central para reuniões estratégicas da área comercial.
- Capacidade de analisar negociações passadas, mudanças de valores e atrasos, fornecendo insights acionáveis.
- Monitoramento de API garante continuidade do ETL e prevenção de interrupções no fluxo de dados.
- Suporte a decisões estratégicas de vendas, financeiras e diretoria, tornando o projeto um pilar de análise de dados.
Tecnologias Utilizadas: Power BI Service, Dataflows Power BI, Power Automate, SharePoint, RD Station API, ETL, JSON, dashboards interativos, KPIs, monitoramento de API.
Dashboard de Controle de Inventário e Licenças — Microsoft 365 e Segurança
Projeto voltado para centralizar e automatizar o controle do inventário de equipamentos e licenças, além de monitorar recursos de segurança como Intune, Defender e Defender for Endpoint Server.
O objetivo era fornecer relatórios gerenciais completos para a área financeira e TI, trazendo visibilidade sobre custos, utilização e inconsistências nos cadastros.
Planejamento e Concepção
- Criação de um app no Azure EntraID para autenticação e acesso seguro aos endpoints.
- Mapeamento de endpoints da Microsoft (usuários, licenças, líderes diretos, cargos e metadados cadastrais).
- Integração com MariaDB do OCS Inventory NG, API do Bookstack (KB corporativa) e Kanbanize (sistema de cards) para cruzamento de informações.
- Construção de mashups avançados de dados para consolidar informações de usuários, máquinas, licenças e custos.
ETL e Processamento de Dados
- Criação de dataflows no Power BI Service para transformar, limpar e consolidar os dados.
- Automatização do cruzamento de dados para gerar relatórios financeiros de rateio de licenças Microsoft 365 e inventário de parque tecnológico, considerando depreciação, garantia, marca, modelo e situação do equipamento.
- Consulta de endpoint da Microsoft para obter tabela de SKUID e gerar nomes amigáveis para relatórios.
- Desenvolvimento de cálculos por departamento e por usuário, com visão detalhada de custo de recursos e licenças.
Monitoramento e Governança de Dados
- Implementação de sistema de monitoramento de inconsistências, identificando:
- Nomes fora do padrão
- Máquinas sem uso ou depreciadas
- Divergência de máquinas atribuídas a mais de uma pessoa
- Sistemas operacionais antigos
- Usuários sem líder, área ou perfil no KB
- Diferenças de nomes no Kanbanize
- Alertas diários enviados por email para a equipe responsável, permitindo correção rápida e mantendo o ambiente organizado.
Dashboard e Relatórios
- Criação de dashboards interativos publicados no SharePoint, permitindo visualização detalhada do inventário, licenças e custos.
- Relatórios gerenciados e automatizados para a área financeira, com distribuição programada.
- Indicadores de compliance e saúde do inventário, aumentando a governança e reduzindo erros cadastrais.
Resultados e Benefícios
- Visibilidade completa do parque tecnológico e licenças Microsoft 365, com detalhamento de custos e utilização.
- Detecção proativa de inconsistências e problemas cadastrais, evitando falhas em auditorias e processos financeiros.
- Automatização de relatórios e dashboards, reduzindo tempo manual de compilação e análise de dados.
- Centralização da informação em dashboards e SharePoint, permitindo decisões estratégicas mais rápidas e confiáveis.
Tecnologias Utilizadas: Azure EntraID, Power BI Service, Dataflows Power BI, MariaDB (OCS Inventory), Bookstack API, Kanbanize API, SharePoint, dashboards interativos, monitoramento de inconsistências, ETL avançado.
Mapeamento de Inconsistências de Licenças — QlikView e QlikSense
Projeto voltado para identificar e corrigir inconsistências na atribuição de licenças do QlikView e QlikSense, evitando estouro de licenças contratadas e garantindo que usuários ativos tenham acesso correto.
Planejamento e Concepção
- Identificação de problemas: usuários desativados ainda com licenças atribuídas e usuários ativos sem licença.
- Definição de processos de extração e cruzamento de dados entre sistemas para gerar relatórios de inconsistências.
Automação com Rundeck
- Todos os relatórios foram extraídos através de jobs no Rundeck, garantindo execução programada e manual quando necessário.
- Relatórios de usuários do Active Directory e das aplicações eram coletados automaticamente e salvos em compartilhamentos Samba ou arquivos CSV.
- Esses dados eram consumidos pelo Power BI Service para realizar o cruzamento entre usuários ativos e licenças atribuídas, gerando relatórios paginados consistentes.
QlikSense
- Rundeck conectava ao banco de dados PostgreSQL do QlikSense e extraía os usuários com licenças.
- Os relatórios eram combinados com os usuários ativos das OUs do AD, enviados para o Power BI Service via Data Gateway Azure.
- Geração de relatórios paginados diários, distribuídos para a equipe responsável para correção proativa de licenças.
QlikView
- Como não havia API nem banco de dados, foi criado um script em Node.js com Puppeteer para acessar o QMC, navegar até os usuários com licenças e exportar a tabela HTML para CSV.
- CSV era processado da mesma forma: cruzado com AD, consumido pelo Power BI Service e gerado relatório paginado diário.
Resultados e Benefícios
- Controle efetivo das licenças QlikView e QlikSense, prevenindo estouro de contratos.
- Automação completa de coleta e processamento de dados via Rundeck, reduzindo falhas manuais.
- Relatórios consistentes e automáticos no Power BI Service, permitindo ação proativa na manutenção de licenças.
- Integração com dashboards gerenciais para análise e acompanhamento contínuo.
Tecnologias Utilizadas: Rundeck, PostgreSQL, Node.js, Puppeteer, Power BI Service, Data Gateway Azure, Active Directory, CSV, automação de relatórios, mashup de dados.
Automatização do Active Directory Híbrido — Grupos Dinâmicos e Provisionamento
Projeto voltado para automatizar a gestão do Active Directory híbrido, criando sincronização de campos extras e permitindo a criação de grupos dinâmicos baseados em regras de metadados de usuários sincronizados.
Planejamento e Concepção
- Sincronização de campos adicionais do AD local para o Azure AD, ampliando possibilidades de automação e provisionamento.
- Criação de grupos dinâmicos com base em regras definidas pelos metadados dos usuários.
- Automatização do provisionamento de usuários em SSO e aplicações de terceiros, incluindo sistemas de autoprovisionamento como o Cloud Identity do GCP.
Integração com Microsoft 365
- Os grupos dinâmicos alimentam tanto grupos de segurança quanto grupos de email do Microsoft 365.
- Atribuição automática de licenças Microsoft 365 e Defender for Business com base nos grupos dinâmicos.
- Implementação de regras de retenção e gerenciamento de limite de grupos de email, prevenindo problemas de recebimento devido a excesso de membros.
Automação e Benefícios
- Redução de trabalho manual na administração de grupos e licenças.
- Garantia de consistência e conformidade com políticas de segurança e provisionamento de usuários.
- Automatização completa de processos de licenciamento, SSO e gerenciamento de grupos, minimizando erros e garantindo eficiência.
- Integração com infraestrutura híbrida, permitindo que políticas de provisionamento sejam aplicadas de forma transparente para ambientes on-premises e cloud.
Tecnologias Utilizadas: Azure AD, Active Directory Híbrido, PowerShell, Microsoft 365, Defender for Business, Grupos Dinâmicos, SSO, Cloud Identity (GCP), regras de retenção de email, automação de provisionamento.
Projeto de Imersão em Redes e Telecomunicações
Este projeto teve como objetivo proporcionar capacitação técnica e teórica para colaboradores internos da empresa, explorando o universo de redes e telecomunicações.
Além de ampliar a compreensão sobre o setor, a iniciativa também buscou alinhar os colaboradores aos produtos e soluções comercializados pela organização.
O programa foi estruturado em encontros quinzenais, com duração de duas horas, que abordavam desde conceitos básicos até tópicos mais avançados, sempre contextualizados
com aplicações práticas. A cada sessão, os materiais apresentados eram transformados em conteúdo digital, garantindo que o conhecimento fosse preservado e acessível.
Metodologia e Entregáveis:
- Criação de glossário técnico e apostilas detalhadas.
- Elaboração de conteúdos didáticos e apresentações interativas.
- Gravação e edição das apresentações, publicadas em canal privado no YouTube.
- Integração do conteúdo à plataforma Moodle para gestão do aprendizado.
- Aplicação de provas e emissão de certificados digitais automáticos.
Resultados:
- Alto índice de engajamento dos participantes.
- Avaliação geral "muito bom", destacando aumento significativo no nível de conhecimento técnico.
- Fortalecimento da cultura de aprendizado contínuo e alinhamento com os produtos da empresa.
Tecnologias e Recursos Utilizados: Moodle, YouTube (canal privado), produção de vídeo e edição, apresentações interativas, glossário e apostilas digitais.