Os lakehouses resolveram muitos problemas empresariais ao unificar e simplificar o armazenamento de dados. Mas o cenário operacional no nível empresarial mudou. Hoje, as organizações estão coordenando mais ferramentas, gerenciando mais dados, operacionalizando a IA e lidando com um aumento da fiscalização regulatória.
Como resultado, os dados não podem mais ser tratados como algo consultado ocasionalmente ou de forma isolada. Agora, eles precisam ser operacionais — ou seja, prontos para uso em tempo real, tomada de decisão automatizada e fluxos de trabalho orientados por IA em toda a organização. Essa mudança está levando as arquiteturas para além dos lakehouses e em direção a uma plataforma de inteligência de dados mais dinâmica.
As empresas modernas dependem de várias plataformas de análise para dar suporte a uma ampla variedade de cargas de trabalho, incluindo inteligência de negócios e relatórios, análise em tempo real, observabilidade, aprendizado de máquina e IA.
Cada equipe traz suas próprias necessidades para os mesmos dados e, na prática, as escolhas de plataforma são orientadas por produtividade e velocidade, e não por pureza arquitetônica. Grande parte desses dados também permanece em ambientes locais ou regulados, nos quais movê-los para a nuvem não é prático nem permitido.
O modelo original de lakehouse pressupunha a convergência para um pequeno número de plataformas de análise. A realidade provou o contrário: ferramentas, usuários e cargas de trabalho se diversificaram. O desafio agora é dar suporte a essa diversidade sem abrir mão da consistência nem do controle.
Apesar das implementações de lakehouse, os dados empresariais muitas vezes continuam fortemente acoplados à plataforma que os gerencia. Quando outra plataforma precisa de acesso, os dados geralmente são copiados, transformados ou exportados para se ajustarem àquele ambiente.
Com o tempo, simplesmente manter os dados consistentes e acessíveis em todas essas plataformas passa a ser um desafio. Conjuntos de dados duplicados, pipelines frágeis, insights atrasados e governança inconsistente introduzem risco operacional e elevam os custos.
O resultado é um padrão conhecido: aumento de gastos, complexidade crescente e queda da confiança nos dados e em seus resultados.
O lakehouse ajudou a trazer estrutura para um cenário de análise de dados fragmentado, facilitando a integração entre sistemas de dados. À medida que as empresas avançam para a era das plataformas de inteligência de dados em escala total, o foco muda.
Em vez de os dados serem moldados e controlados por ferramentas individuais, eles passam a ser a base da arquitetura — onde quer que esses dados residam fisicamente. Todas as ferramentas ficam sobre uma camada de dados compartilhada, em vez de puxarem dados para ambientes isolados e produzirem resultados em silos.
Essa mudança permite que as equipes escolham o mecanismo de processamento certo para cada carga de trabalho — seja análise em SQL, processamento em grande escala ou IA — com a confiança de que estão operando sobre a mesma base de dados governada e confiável.
Uma plataforma de inteligência de dados é uma infraestrutura compartilhada para dados. Pense nela como a infraestrutura de uma cidade — as ruas, linhas de energia e encanamentos sob uma cidade, dos quais todos os edifícios dependem e aos quais se conectam.
Da mesma forma, uma plataforma de inteligência de dados fornece uma base centralizada que sustenta muitas ferramentas, mecanismos de processamento e aplicações diferentes, com governança e contexto incorporados desde a concepção, e não “acoplados” depois.
Ela é caracterizada por:
Uma camada de dados compartilhada construída sobre formatos de dados abertos
Uma rica linhagem de metadados que captura estrutura, significado e histórico
Governança incorporada que acompanha os dados
Suporte para múltiplos mecanismos de análise e IA
A capacidade de evoluir sem precisar reestruturar tudo do zero.
Uma plataforma como essa só funciona se os dados puderem ser compartilhados com segurança entre todas as ferramentas e ambientes, seja em ambientes locais, na nuvem, em edge ou em uma combinação deles. Os formatos abertos de tabela são a base comum que torna possível a interoperabilidade entre diferentes mecanismos de processamento (para continuar com a metáfora da cidade: os códigos de construção e os padrões das ruas que tornam a cidade navegável para todos).
Sem eles, conectar ferramentas muitas vezes significa lidar com formatos incompatíveis, latências inconsistentes, dependência de tecnologias proprietárias ou dados que precisam ser governados através de fronteiras geográficas. Isso pode levar a problemas conhecidos: menor auditabilidade, visões inconsistentes dos dados e desafios crescentes relacionados à confiança.
Em contraste, os formatos abertos reduzem a dependência de tecnologias proprietárias e dão suporte a um ecossistema crescente de ferramentas (ou seja, configurar uma vez e deixar crescer junto com seu stack tecnológico ao longo do tempo). Eles facilitam a definição de políticas de governança uma única vez e sua aplicação em todos os lugares (inclusive onde os dados não podem ser movidos com facilidade), independentemente de qual mecanismo precise de acesso. Isso também cria uma “camada de memória” consistente para sistemas orientados por IA, tornando-os mais confiáveis, auditáveis e adaptáveis por meio de rastreabilidade incorporada e contexto histórico.
Sem formatos abertos e governança incorporada, a inteligência rapidamente se fragmenta de volta em silos, comprometendo o valor que as plataformas de inteligência de dados devem entregar.
Quer ver como é uma plataforma de inteligência de dados na prática?
Veja como tabelas Iceberg gerenciadas pela Cloudera podem ser consultadas pelo Snowflake e pelo Databricks sem copiar dados nem comprometer a governança.
Adotar uma plataforma de inteligência representa uma mudança fundamental não apenas na infraestrutura, mas também na forma como as organizações pensam sobre seus dados e confiam neles. O período de transição é especialmente crítico porque define as expectativas de confiabilidade, integração e adoção entre as equipes. Erros no início podem criar desafios persistentes e resistência à adoção no longo prazo.
Quando essa mudança é bem conduzida, ela equilibra estabilidade e progresso, mantendo processos essenciais para a missão em funcionamento e, ao mesmo tempo, entregando ganhos iniciais que geram confiança e impulso.
A equipe de serviços profissionais e transformação (PS&T) da Cloudera ajuda as organizações a conduzir essa mudança com cuidado, evitando armadilhas arquitetônicas comuns e construindo uma base duradoura que dá suporte a futuros casos de uso de análise e IA.
Saiba mais sobre os nossos recursos de PS&T aqui.
This may have been caused by one of the following: