E se você pudesse tirar da frente toda e qualquer complexidade da infraestrutura de dados e, rapidamente, com poucos passos, fosse direto para o que interessa: criação de aplicações de dados e Inteligência Artificial, criação de salas de limpeza de dados (Data Clean Rooms), integração com diferentes ferramentas e plataformas para criar soluções de dados, criação de Slowly Changing Dimensions em Data Warehouses a partir de dados coletados em tempo real, tudo isso com recursos de governança e segurança, para que sua empresa conseguisse extrair valor dos dados e assim obter retorno sobre o investimento feito?

Isso seria interessante?

E se você tivesse a oportunidade de aprender a planejar e implementar plataformas de dados usando Modern Data Stack e ainda aprendesse a criar pipelines ETL com Spark e orquestração de fluxos de dados com Apache Airflow?

Você gostaria de desenvolver as habilidades necessárias sobre como fazer isso trabalhando 100% na nuvem, com material de qualidade e alto nível, aulas em vídeo mostrando tudo passo a passo, em português, com didática impecável, suporte em até 24 horas (incluindo finais de semana e feriados) e ainda receber certificado de conclusão?

Seria um sonho?

Então acorde! Seu sonho virou realidade. 😄

Tudo isso e muito mais você encontra na Formação Arquiteto de Dados 4.0 – Transformação Digital na Era da Inteligência Artificial!

Você recebe um certificado de conclusão para cada curso e ao concluir todos os cursos recebe o certificado de conclusão da Formação. Oferecemos a possibilidade de obter os certificados em português e inglês.

A Formação é composta de 4 cursos principais:

1. Arquitetura de Plataforma de Dados e Modern Data Stack

Mergulhe no universo das plataformas de dados modernas com este curso prático e abrangente! Através de 8 projetos estrategicamente elaborados, você será equipado com as habilidades e conhecimentos essenciais para se destacar na arquitetura, implementação e gestão de sistemas de dados de alto desempenho.

Aqui você terá uma visão abrangente sobre como as organizações podem construir e manter infraestruturas de dados robustas e escaláveis, utilizando as mais recentes tecnologias e frameworks, incluindo os avanços recentes em Inteligência Artificial.

Através de uma combinação de teoria sólida, projetos práticos e atividades hands-on, você será equipado com as habilidades necessárias para projetar e implementar uma arquitetura de dados eficaz que atenda às necessidades de negócios que estão em constante evolução.

No decorrer do curso, serão apresentados os conceitos fundamentais de arquitetura de plataforma de dados, incluindo a coleta, processamento, armazenamento e análise de dados.

Além disso, o curso explora os principais componentes de uma Modern Data Stack e como as diferentes tecnologias e ferramentas podem ser integradas para criar uma solução de gestão de dados coesa.

2. Pipelines de ETL e Machine Learning com Apache Spark

Este curso fornece uma compreensão prática e aplicada, permitindo aos alunos não apenas aprender os conceitos teóricos, mas também ganhar experiência prática na construção e otimização de pipelines de dados robustos e escaláveis.

Iniciamos com a arte da exploração de dados e operações SQL com Spark SQL, estabelecendo uma base sólida para as atividades subsequentes.

A partir daí, aprofundamos na engenharia de dados, desvendando o desenvolvimento de pipelines ETL robustos, aptos para execução em clusters Spark, e abordando desafios de dados em tempo real através de pipelines de coleta, transformação e análise.

E, como Inteligência Artificial já é uma realidade, o projeto que integra Modelos de Linguagem (LLMs) usando LangChain e Apache Spark, traz a potência da análise textual ao contexto do Spark.

Mas o curso não seria completo sem abordar o lado operacional: o deploy e versionamento de modelos de Machine Learning, utilizando a combinação poderosa do Spark com Databricks. Trazemos, também, uma perspectiva multi-linguagem, com a otimização de aplicações Spark nas linguagens Python, Scala e R.

Concluímos nossa jornada introduzindo uma visão inovadora e atual da gestão de dados: a construção de um Data Lakehouse Low-Code utilizando Apache Spark e Delta Lake.

3. Orquestração de Fluxos de Dados com Apache Airflow

Orquestre o futuro e domine a sinfonia dos fluxos de dados com este curso 100% dedicado ao Apache Airflow, uma ferramenta poderosa que transformou o mundo da arquitetura e engenharia de dados.

Começaremos a jornada criando pipelines de dados fundamentais, introduzindo os alunos às bases e detalhes da criação de Directed Acyclic Graphs (DAGs) no Airflow. À medida que evoluímos, você aprenderá a articular esses pipelines com precisão, através da criação de schedules e triggers que garantem a execução fluida e coordenada de seus workflows.

Mas você está na DSA e não ficaremos somente nos fundamentos. Embarcaremos na customização avançada com o desenvolvimento e uso de operadores personalizados, permitindo que você adapte o Airflow exatamente às suas necessidades.

E, considerando a necessidade das empresas modernas de operar em escala, você se aprofundará na configuração e execução de workflows em clusters, garantindo a escalabilidade e robustez dos seus fluxos de dados.

Um destaque especial do curso é a integração com outros sistemas e práticas essenciais, como a automação de testes utilizando CI/CD e o streaming de dados com Apache Kafka.

4. Projeto e Implementação de Plataforma de Dados com Snowflake

Este curso, meticulosamente estruturado, visa conduzir você por essa jornada, desde os primeiros passos até a maestria na implementação de soluções complexas. A experiência começa com o básico, guiando você através do processo de iniciar no Snowflake a partir do zero, estabelecendo uma base sólida. A partir dessa base, navegamos pelas nuances do Data Warehouse, explorando técnicas avançadas como Slowly Changing Dimensions usando Snowpark e StreamSets.

A versatilidade do Snowflake é destacada conforme mergulhamos em pipelines de dados usando a linguagem Python e na criação de aplicativos orientados a dados utilizando SQL. O curso amplia seus horizontes com uma abordagem integrada, combinando a robustez do Snowflake com ferramentas como Dataiku para soluções de Data Science e Collibra para governança de dados. Há um forte enfoque na qualidade e integridade dos dados, como visto no lab dedicado à implementação de uma “sala de limpeza de dados” (Data Clean Rooms), e na ingestão especializada de logs de acesso do AWS S3.

À medida que avançamos, o curso também abraça o futuro da análise de dados, introduzindo Machine Learning com DataRobot e desenvolvendo uma aplicação de reconhecimento de imagens utilizando uma combinação poderosa de Snowpark, Python, PyTorch, Streamlit e OpenAI.


Os cursos acima são os cursos principais da Formação e obrigatórios para obter o certificado da Formação.

Como bônus oferecemos os cursos abaixo, que são opcionais e você pode fazer em qualquer ordem que desejar, quando quiser obter um conhecimento específico. Esses são os cursos de bônus:

  • Planejando sua Carreira para as Profissões do Futuro
  • Introdução à Lógica de Programação
  • Sistema Operacional Linux, Docker e Kubernetes
  • Governança de Dados
  • Soft Skills – Desenvolvendo Suas Habilidade Comportamentais
  • E-Gov Analytics
  • Machine Learning com JavaScript e Go
  • Data Science e Machine Learning com Linguagem Julia

Todos os cursos de bônus estão dentro de Cursos de Aperfeiçoamento Profissional – Bônus da Formação. Os cursos de bônus NÃO são obrigatórios para obter o certificado da Formação, mas cada curso de bônus também oferece certificado de conclusão em português ou inglês.

O que está esperando? Faça sua inscrição e comece agora mesmo:

Formação Arquiteto de Dados 4.0

Bons estudos.

Equipe DSA