Comparativo Técnico de Plataformas de Dados – Databricks, Microsoft Fabric e Snowflake

Databricks, Microsoft Fabric e Snowflake são três das principais plataformas de dados em nuvem hoje, cada qual com uma proposta distinta.
Databricks nasceu do ecossistema Apache Spark e adota a arquitetura Lakehouse, unindo Data Lakes e Data Warehouses em um ambiente unificado para dados estruturados e não estruturados, com forte ênfase em análises avançadas e Machine Learning.
O Snowflake é um Data Warehouse totalmente gerenciado e nativo da nuvem, com arquitetura de múltiplos clusters e separação entre armazenamento e computação. Ele foca na simplicidade e alto desempenho para consultas SQL, oferecendo escalabilidade elástica quase ilimitada e baixo esforço de administração.
Já o Microsoft Fabric é uma plataforma integrada mais recente, parte do ecossistema Azure, que combina ferramentas de engenharia de dados, Data Lake, analytics em tempo real e Business Intelligence em um só produto. O Fabric destaca-se pela integração profunda com serviços Microsoft como Power BI e Azure Synapse, além de enfatizar a facilidade de uso com recursos de baixa ou nenhuma codificação.
Neste post trazemos uma comparação técnica dessas três plataformas de dados (Databricks, Microsoft Fabric e Snowflake) quanto a desempenho, escalabilidade, integração, preços, segurança, casos de uso empresariais e limitações.
Desempenho
Desempenho refere-se à velocidade e eficiência com que cada plataforma processa consultas e grandes volumes de dados. Cada solução utiliza arquiteturas e otimizações distintas para acelerar workloads de analytics.
Databricks: Apoiado no motor de processamento distribuído Apache Spark, o Databricks oferece desempenho elevado para volumes massivos de dados e cargas de trabalho de ML. Sua engine otimizada e técnicas como caching de dados e otimização de arquivos permitem ganhos de performance significativos sobre o Spark open-source tradicional (a Databricks cita até 8 vezes mais rapidez em certos cenários). A arquitetura Lakehouse do Databricks foi projetada para análises quase em tempo real, com recursos de I/O e otimizações automáticas de consultas, tornando-o ideal para obter insights rápidos de grandes datasets.
Snowflake: O Snowflake foi construído com foco em consultas analíticas e entrega um desempenho consistente e alto para SQL em dados estruturados. Sua arquitetura com múltiplos clusters isolados permite escalar recursos de computação conforme a demanda, mantendo tempos de resposta rápidos mesmo com muitos usuários ou consultas complexas. Em cenários de data warehousing e BI, o Snowflake se destaca por otimizar automaticamente o desempenho das consultas e gerenciar a concorrência de forma transparente para o usuário, oferecendo respostas ágeis mesmo em workloads intensivos.
Microsoft Fabric: O Fabric suporta processamento de dados tanto em lote quanto em tempo real dentro do ecossistema Microsoft, porém seu desempenho atualmente atende melhor a workloads de tamanho moderado. A integração nativa com Power BI e o uso do engine do Azure Synapse possibilitam análises fluidas para Data Warehouses de até cerca de 1TB, mas a plataforma ainda não demonstrou a mesma performance em escalas gigantescas que suas concorrentes. Lançado recentemente, o Fabric vem aprimorando sua performance a cada atualização, beneficiando especialmente usuários que já realizam transformações de dados no Power BI e desejam antecipá-las no pipeline de dados.
Escalabilidade
A escalabilidade indica a capacidade da plataforma lidar com crescentes volumes de dados e usuários, expandindo recursos sem perda significativa de desempenho.
Databricks: Projetado para cargas de trabalho de Big Data, o Databricks se destaca em escalabilidade horizontal. Ele permite adicionar ou remover nós de computação em clusters Spark conforme necessário, inclusive com auto-escalonamento baseado na carga. Organizações podem processar terabytes ou petabytes de dados e milhares de tarefas em paralelo, aproveitando a flexibilidade multi-cloud do Databricks para rodar em AWS, Azure ou GCP. Essa capacidade de escalar para volumes muito grandes e em diferentes nuvens torna o Databricks adequado para demandas crescentes sem necessidade de reestruturação da arquitetura.
Snowflake: A escalabilidade é um dos pontos fortes do Snowflake. Por ter separação entre armazenamento e computação, o Snowflake permite ajustar instantaneamente o tamanho do cluster de processamento (chamado de warehouse) e até configurar múltiplos clusters que escalam automaticamente para atender a picos de uso. Na prática, a plataforma pode crescer desde poucos gigabytes até vários petabytes de dados e centenas de usuários, sem degradação perceptível de performance. O dimensionamento linear de recursos – acrescentando poder de computação conforme a demanda – garante que o desempenho se mantenha consistente conforme a carga aumenta.
Microsoft Fabric: O Fabric é escalável dentro do ambiente Azure, mas apresenta algumas restrições comparado a Databricks e Snowflake em cenários de altíssimo volume. Ele opera com um modelo de capacidade no Azure – recursos de computação e armazenamento são alocados em tiers de serviço – o que proporciona escalabilidade elástica até o limite daquela capacidade contratada. É possível aumentar a capacidade para suportar mais dados ou usuários, mas atualmente o Fabric não se mostrou tão escalável em workloads de máxima escala quanto o Databricks e o Snowflake. Conforme comparativos independentes, o Fabric não atinge o mesmo patamar de escalabilidade em volumes extremamente grandes que as outras plataformas. Ainda assim, para empresas já integradas ao Azure, o Fabric oferece escalabilidade suficiente para a maioria dos casos de uso corporativos típicos, beneficiando-se da infraestrutura de nuvem da Microsoft.
Integração e Ecossistema
A capacidade de integrar-se a outras ferramentas e fazer parte de um ecossistema maior é fundamental na escolha de uma plataforma de dados. Veja como cada opção se integra com outros serviços e tecnologias.
Databricks: Tem forte alinhamento com ferramentas open-source e um alcance multicloud. O Databricks integra-se nativamente com o Apache Spark (seu núcleo de processamento), com o sistema de arquivos distribuído Delta Lake e com uma ampla gama de bibliotecas de código aberto para ML e ETL. Oferece conectores para diversas fontes de dados (bancos SQL, NoSQL, Data Lakes em S3/ADLS) e permite o uso de múltiplas linguagens (Python, SQL, R, Scala) no mesmo fluxo de trabalho. Em termos de BI, o Databricks pode conectar-se a ferramentas como Tableau e Power BI – inclusive há integração para publicar datasets diretamente no Power BI – embora sua interface nativa seja mais voltada a notebooks e scripts. Por ser baseado em formatos abertos (Parquet/Delta) e executar na infraestrutura de nuvem do cliente, ele minimiza o risco de lock-in e se encaixa bem em arquiteturas híbridas com outras soluções.
Snowflake: Possui um ecossistema rico de integrações, apesar de ser uma plataforma proprietária. O Snowflake oferece drivers e conectores para praticamente todas as principais ferramentas de ETL/ELT e BI do mercado, permitindo que soluções como Tableau, Power BI ou Looker consultem os dados via SQL diretamente no Snowflake. Suporta integração com linguagens de programação via APIs e com o recurso Snowpark, que permite desenvolver rotinas em Python, Java ou Scala dentro da plataforma. Além disso, o Snowflake facilita a troca de dados entre organizações com seu Data Marketplace e recursos de compartilhamento seguro de dados. Diferentemente do Databricks, porém, os dados carregados no Snowflake ficam em um formato de armazenamento interno; isso implica certa dependência da plataforma, exigindo passos de exportação caso se queira reutilizar esses dados fora do Snowflake. Ainda assim, a habilidade do Snowflake de se conectar a diversas ferramentas de analytics (por exemplo, integração nativa com Tableau e Power BI para insights em tempo quase real) e serviços na nuvem (roda em AWS, Azure e GCP) o torna uma opção flexível no ecossistema corporativo.
Microsoft Fabric: O Fabric foi criado para ser uma solução unificada dentro do universo Microsoft, então sua integração com ferramentas da própria Microsoft é profunda. Ele incorpora funcionalidades do Azure Synapse Analytics, Azure Data Factory, Power BI e outros serviços, permitindo que dados fluam facilmente entre Data Lakes, Data Warehouses e relatórios no Power BI. Usuários do Microsoft 365 também se beneficiam, pois é simples compartilhar dados e resultados com aplicativos como Excel, Teams ou SharePoint. Entretanto, essa forte orientação ao ecossistema Microsoft significa que o Fabric atualmente possui integrações limitadas com soluções de terceiros fora desse escopo. Por exemplo, ao contrário do Databricks e do Snowflake, o Fabric não se integra diretamente a ferramentas de BI de outros fabricantes, o que pode ser uma barreira para organizações que utilizam produtos variados. Por outro lado, para quem já é um Microsoft shop, essa integração interna e familiaridade de interfaces é uma vantagem significativa que simplifica os projetos de dados end-to-end.
Preços e Modelos de Licenciamento
Os modelos de precificação variam entre as plataformas, influenciando o custo total conforme o perfil de uso de cada uma.
Databricks: Adota um modelo de pagamento conforme o uso (pay-as-you-go), sem custos iniciais ou licenças prévias – paga-se apenas pelos recursos computacionais consumidos em nível de segundos. O consumo é medido em Databricks Units (DBUs) atreladas ao tempo de processamento em cada tipo de workload (engenharia de dados, SQL warehousing, jobs de streaming, etc.). Esse modelo traz flexibilidade: é possível criar clusters robustos para grandes tarefas e desligá-los ao concluir, otimizando custos. No entanto, se não houver um controle eficiente (por exemplo, desligar clusters ociosos), os gastos podem escalar proporcionalmente ao uso de computação e volume de dados processado. Ou seja, workloads intensivos de ML ou Big Data podem aumentar significativamente a fatura. Em contrapartida, essa abordagem permite que o custo esteja sempre alinhado ao uso real, evitando pagar por capacidade fixa não utilizada.
Snowflake: Utiliza um modelo de precificação por consumo de créditos. O cliente paga pelos recursos de computação utilizados (medidos em créditos Snowflake), enquanto o armazenamento de dados é cobrado separadamente por terabyte ao mês. Na prática, é um pay-per-use com cobrança sob demanda: pode-se escalar o poder de processamento conforme necessário e pagar apenas pelo tempo efetivo de execução das consultas ou cargas de dados. Esse modelo é vantajoso para workloads variáveis ou sazonais, pois o Snowflake pode até pausar automaticamente um cluster (“warehouse”) quando não há consultas, evitando cobranças ociosas. Contudo, em ambientes com uso intensivo e constante, os créditos consumidos podem gerar custos notáveis – estudos indicam que os custos podem superar os do Databricks em cenários de altíssimo volume de dados. Assim, é importante monitorar e otimizar consultas, já que a facilidade de escalar recursos anda de mãos dadas com a possibilidade de despesas elevadas se houver muitas consultas pesadas ou uso 24×7. Ainda assim, para muitas empresas o Snowflake oferece boa relação custo-benefício, devido à eficiência das consultas e à eliminação de gastos operacionais com infraestrutura e tuning manual.
Microsoft Fabric: A Microsoft adota um modelo de capacidade para o Fabric, diferentemente do modelo puramente por consumo das outras plataformas. Isso significa que a organização adquire um nível de capacidade (um conjunto de recursos de computação/armazenamento predefinidos, semelhante aos SKUs do Power BI Premium) e paga um valor fixo por essa capacidade dedicada, seja mensal ou anualmente. Dentro desse recurso alocado, é possível executar todas as cargas de trabalho de dados (ingestão, processamento, análise, BI) até o limite contratado, sem cobrança por consulta individual. Esse modelo traz maior previsibilidade orçamentária e pode gerar economia para empresas que já investem no stack Microsoft, pois há integração com licenças existentes e planos agrupados com outros serviços. Por outro lado, para cenários de uso esporádico ou de menor escala, o modelo de capacidade pode resultar em recursos ociosos (pagos mas não utilizados plenamente). Além disso, se a demanda crescer além da capacidade adquirida, é necessário mudar para um tier superior (upgrade de plano), o que representa um incremento de custo significativo em degrau. O Fabric privilegia um custo fixo pelo throughput reservado, sendo interessante para quem quer um custo previsível e já extrai valor do ecossistema Microsoft; já quem prefere pagar estritamente pelo que usar, talvez enxergue mais flexibilidade nos modelos do Databricks ou Snowflake.
Sempre consulte a documentação oficial de cada plataforma uma vez que os planos de precificação mudam com frequência.
Segurança
Cada plataforma oferece um conjunto robusto de recursos de segurança para proteger dados sensíveis, embora com enfoques distintos.
Databricks: Voltado a ambientes corporativos, o Databricks inclui controles de segurança de nível empresarial. Há suporte a controle de acesso baseado em papéis (RBAC) com permissões granulares em notebooks, tabelas e clusters, além de criptografia de dados em repouso e em trânsito. A plataforma atende a mais de 15 padrões de conformidade, incluindo GDPR e HIPAA. O Databricks introduziu o Unity Catalog, um catálogo unificado (open-source) para governança de dados, permitindo definir políticas e auditorias centralizadas de acesso a dados em todo o Lakehouse. Adicionalmente, oferece um pacote de Segurança Aprimorada que permite usar imagens de execução reforçadas e monitoramento comportamental de ameaças no ambiente. Por operar dentro da infraestrutura de nuvem do cliente (especialmente em implementações AWS/GCP gerenciadas), o Databricks também possibilita isolamento de rede (VPC/VNet) e integração com sistemas corporativos de identidade (AD/LDAP), garantindo que os controles de segurança existentes na empresa se estendam à plataforma.
Snowflake: O Snowflake foi concebido com segurança multi-tenant em mente e inclui diversos mecanismos robustos de proteção de dados. Ele aplica criptografia ponta a ponta por padrão (dados em trânsito e em repouso) e permite definir políticas de rede (por exemplo, restringir acessos por IP e integrações via VPN privada). Suporta autenticação multifator e single sign-on via SAML/OAuth, facilitando integração com o AD corporativo. Em termos de governança de dados, o Snowflake disponibiliza controle de acesso a nível de objeto e esquemas, incluindo masking de colunas sensíveis e políticas de acesso por linha (row-level security). A plataforma cumpre exigências rigorosas de conformidade, possuindo certificações como SOC 2 Type II, ISO 27001 e PCI DSS. Para clientes com requisitos extremos de isolamento, há a opção do Virtual Private Snowflake, que opera em uma instância isolada e dedicada do Snowflake, garantindo segregação completa dos dados do cliente em um ambiente exclusivo. O Snowflake provê segurança equivalente à de bancos de dados corporativos tradicionais, mas com os benefícios adicionais de um serviço cloud (atualizações automáticas de patches de segurança, auditorias centralizadas, etc.).
Microsoft Fabric: Por estar alicerçado na plataforma Azure, o Fabric herda as avançadas capacidades de segurança e compliance do ecossistema Microsoft. A autenticação e o controle de acesso são unificados via Azure Active Directory, possibilitando MFA e gerenciamento de identidades centralizado. O Fabric integra-se ao Microsoft Purview para catalogação, classificação de dados e aplicação de políticas de governança em todo o ambiente. Ferramentas como Microsoft Defender for Cloud e Sentinel podem ser utilizadas para monitoramento de ameaças e logs de auditoria nos pipelines de dados. Desde o design, o Fabric visa atender padrões globais e setoriais de conformidade, o que o torna atraente para organizações em setores altamente regulamentados. Todos os dados no Fabric são criptografados e a plataforma oferece recursos para isolamento de workloads, gerenciamento de chaves de criptografia e verificação contínua de configurações de segurança. Para empresas já confortáveis com a segurança do Azure, o Fabric aparece como uma extensão natural desses controles ao mundo dos dados unificados.
Casos de Uso no Mundo dos Negócios
Determinados cenários de negócio podem orientar a escolha da plataforma de dados. A seguir, destacamos alguns casos de uso típicos e qual solução tende a se sobressair em cada contexto.
Análise de dados corporativos e BI tradicional: Para empresas que precisam de um armazém de dados confiável como base para relatórios e dashboards, o Snowflake costuma ser uma escolha acertada. Ele é ideal para analytics tradicionais de dados estruturados, como consolidação de informações financeiras ou de vendas de múltiplas fontes, com inúmeros usuários executando consultas SQL simultaneamente e ferramentas de BI conectadas em tempo real. Sua facilidade de uso e performance consistente o tornam adequado para casos de uso como relatórios executivos, inteligência de negócios e análise descritiva em larga escala.
Big Data e Machine Learning avançado: Quando o foco é Ciência de Dados, aprendizado de máquina e processamento de grandes volumes de dados heterogêneos, o Databricks geralmente se destaca. Empresas de tecnologia, comércio eletrônico ou da área de saúde que analisam dados complexos (logs de eventos, dados de sensores IoT, imagens, texto livre) frequentemente optam pelo Databricks para construir pipelines de dados e treinar modelos de ML em escala. Com suporte nativo a frameworks de ML e integração com bibliotecas como MLflow, o Databricks facilita experimentação e implantação de modelos, sendo indicado para casos como sistemas de recomendação, detecção de fraudes em tempo real e analytics preditivo avançado em grande volume.
Cenários de streaming e tempo real: Para aplicações que exigem análise de dados em fluxo contínuo ou com baixa latência (por exemplo, monitoramento de dispositivos IoT, detecção instantânea de anomalias ou personalização em tempo real de ofertas), o Databricks oferece ferramentas robustas (como Spark Structured Streaming e Delta Live Tables) que suportam essas cargas com escalabilidade e tolerância a falhas. O Microsoft Fabric também contempla streaming via recursos como Dataflows e Event Streams, permitindo montar facilmente pipelines de dados em tempo quase real e integrar com visualizações no Power BI– útil para dashboards operacionais ao vivo ou análise de sentimento em redes sociais, por exemplo. Já o Snowflake, embora possibilite ingestão contínua de dados via Snowpipe, é mais comumente utilizado para atualizações frequentes em micro-lotes do que para processamento evento a evento com latência de sub-segundo, o que o coloca em posição menos vantajosa para exigências de streaming puro em comparação às outras opções.
Soluções end-to-end no ecossistema Microsoft: Organizações profundamente inseridas no ecossistema Microsoft podem encontrar no Fabric uma solução unificada muito vantajosa. Um caso de uso típico é uma empresa que deseja conduzir toda a cadeia de dados – desde a ingestão/ETL até a criação de relatórios interativos – dentro da plataforma Microsoft, garantindo governança e segurança consistentes. Por exemplo, uma corporação que já use SQL Server/Azure SQL para sistemas operacionais e Power BI para BI pode adotar o Fabric para unificar pipelines de dados (via Data Factory), armazenar dados integrados em um Data Warehouse do Synapse e disponibilizar dashboards no Power BI para diferentes departamentos, tudo sob a mesma estrutura de workspace. Nesses cenários, o Fabric brilha por eliminar a necessidade de integrar e gerenciar múltiplos produtos separados, oferecendo uma experiência integrada e familiar para as equipes. Estudos indicam que o Fabric é melhor aproveitado por empresas que já investem nos serviços Microsoft e buscam uma solução de dados coesa com Synapse + Power BI.
Arquiteturas híbridas (combinação de plataformas): Vale notar que as plataformas não são necessariamente excludentes. Algumas organizações utilizam o Databricks em conjunto com um data warehouse tradicional (como Snowflake, ou mesmo o Azure Synapse dentro do Fabric) para aproveitar o melhor de cada mundo: o Databricks prepara e processa grandes volumes de dados brutos no data lake, aplicando limpeza e transformações complexas, e em seguida os dados consolidados alimentam o Snowflake ou Fabric para servir consultas SQL de alta performance aos analistas de negócio. De fato, o Microsoft Fabric integra-se bem ao Azure Databricks, e muitas vezes são usados lado a lado em vez de uma decisão “ou um ou outro”. Essa abordagem híbrida pode maximizar vantagens – por exemplo, usando os recursos de ML avançados do Databricks junto com a facilidade de relatórios do Snowflake ou Fabric – ao custo de uma arquitetura um pouco mais complexa de gerenciar.
Limitações de Cada Plataforma
Mesmo sendo soluções robustas, cada plataforma tem limitações e cenários em que não é a escolha ideal.
Databricks – Complexidade e foco técnico: Embora poderoso, o Databricks pode ser excessivo para cenários puramente de BI tradicional ou equipes sem experiência em Analytics. Sua interface é orientada a notebooks e código, o que implica em uma curva de aprendizado para usuários exclusivamente acostumados a ferramentas point-and-click. Para consultas SQL simples e geração de relatórios padrão, plataformas como Snowflake (com sua simplicidade e foco em SQL) podem ser mais adequadas. Além disso, o gerenciamento de clusters e jobs no Databricks requer disciplina operacional; se mal administrado (por exemplo, deixando clusters rodando sem necessidade), pode acarretar custos elevados. O Databricks brilha em Big Data e Machine Learning, mas não foi projetado principalmente para atender casos de uso de reporting tradicional de forma simples – nesses, uma solução de Data Warehouse pode trazer mais produtividade imediata.
Snowflake – Abrangência analítica limitada: Por design, o Snowflake concentra-se em data warehousing e não oferece uma plataforma interna para processamento de dados não estruturados ou modelagem de Machine Learning avançada. Portanto, para tarefas como treinamento de modelos de IA ou análises de grande escala fora do SQL, é necessário integrá-lo a outras ferramentas externas (por exemplo, frameworks Spark ou serviços como SageMaker). Essa dependência de ferramentas adicionais pode adicionar complexidade e latência no fluxo de trabalho. Outro ponto é o lock-in: embora o Snowflake facilite a importação e exportação de dados, uma vez dentro da plataforma, os dados residem em um formato proprietário otimizado – organizações que queiram evitar qualquer dependência podem ver isso como um ponto de atenção. Em termos de custo, conforme mencionado, ambientes com altíssima volumetria de consultas contínuas podem encontrar desafios para otimizar gastos no modelo de créditos do Snowflake. O Snowflake é extremamente eficiente para SQL e BI, mas não foi concebido para ser, sozinho, uma ferramenta de processamento de dados genérica ou de Ciência de Dados ponta a ponta.
Microsoft Fabric – Novo e ecossistema fechado: Por ser uma oferta relativamente nova (anunciada em 2023) e integrada, o Fabric ainda está amadurecendo em recursos e desempenho. Algumas funcionalidades podem não estar tão polidas ou completas quanto as de plataformas mais consolidadas, e seu comportamento sob demandas extremamente altas ainda carece de comprovação em larga escala (até o momento, não foi provado tão performático em volumes maciços quanto as alternativas). Além disso, o forte acoplamento ao ecossistema Microsoft significa que, fora desse ambiente, o Fabric apresenta limitações – integrar ferramentas de terceiros pode requerer conectores adicionais ou simplesmente não ser suportado nativamente (como citado, não há integração direta com soluções de BI de outros fabricantes no Fabric). A dependência do modelo de capacidade também pode ser menos atraente para organizações menores ou projetos pilotos, que preferem escalar gradualmente o investimento. Por fim, embora o Fabric ofereça notebooks e suporte códigos Spark/Python, ele ainda não atinge o nível de flexibilidade do Databricks em termos de suportar todo o ecossistema open-source de dados. Assim, o Fabric tende a ser mais indicado a quem abraça a estratégia Microsoft e menos apropriado para quem busca uma plataforma totalmente neutra ou já distribuída entre múltiplas nuvens.
Conclusão
Cada uma dessas plataformas — Databricks, Snowflake e Microsoft Fabric — possui pontos fortes únicos e atende a diferentes necessidades de negócios.
Em síntese, o Databricks sobressai em cenários de Big Data e Machine Learning (plataforma unificada para dados e IA), o Snowflake é excelente para data warehousing e análises SQL escaláveis e o Microsoft Fabric brilha para organizações imersas no ecossistema Microsoft que buscam uma solução de dados ponta a ponta com BI integrado.
Em muitos casos, essas plataformas podem até se complementar ao invés de se excluírem mutuamente. O importante é avaliar de forma equilibrada aspectos de desempenho, escalabilidade, integração, preços, segurança e alinhamento com os casos de uso do negócio. Assim, a organização pode construir uma estratégia de dados robusta e sustentável, aproveitando o que cada tecnologia tem de melhor para impulsionar resultados.
As 3 plataformas são estudadas aqui na DSA. Acesse aqui nosso catálogo completo de Cursos, Formações e Programas de Pós-Graduação.
Equipe DSA
Referências:
Databricks – Potencializando a Engenharia e Análise de Dados
Snowflake – O Data Cloud Para Gestão de Dados
Microsoft Fabric – Transformando Dados em Conhecimento
Databricks vs Snowflake vs Fabric: A Complete Comparison Guide
[…] Comparativo Técnico de Plataformas de Dados – Databricks, Microsoft Fabric e Snowflake […]
[…] Comparativo Técnico de Plataformas de Dados – Databricks, Microsoft Fabric e Snowflake […]