Como garantir o acesso a dados em um mundo dinâmico e repleto de imprevistos

0
36

Vamos falar do mundo real? Apesar dos bons manuais de gestão, não tem sido nada fácil às corporações usarem todo o manancial de dados que possuem de forma estratégica. Ainda que disponham de valiosas informações sobre clientes, cadeias de suprimentos, mídias sociais, fornecedores e seus canais, a verdade é que é penoso encontrá-las e cruzá-las com rapidez, consistência, segurança, governança e economia.

Estamos diante de uma profusão de silos de dados. Esse desafio para integrar dados do ERP, do CRM, dados em várias nuvens ou em mídias sociais, assim como informações externas provenientes de parceiros, fornecedores e clientes são uma pedra no sapato de executivos e gestores. Afinal, como personalizar interações com o cliente, indentificar riscos e ameaças ao negócio  ou aumentar a eficiência de operações trazendo uma visão 360º? Isso só é obtido a fórceps, muitas vezes manualmente, com grande delay na informação, correndo-se o risco de ter em mãos informações inconsistentes e desatualizadas. Outro desafio é garantir que esse acesso às informações dispersas estejam em conformidade com as regras da Lei Geral de Proteção de Dados (LGPD).

Para o gestor de TI, o desafio não é menor. Quanto mais complexa for a arquitetura de dados, o seu gerenciamento fica ainda mais desafiador, pois é cada vez mais difícil saber onde eles estão, de onde vieram, como chegaram lá, se têm qualidade e consistência, se receberam uma curadoria e como estão sendo usados.

A questão é que o acesso limitado aos dados em silos impede visualizações completas e em tempo real para a tomada de decisões rápidas e bem fundamentadas. A dor é comum a inúmeras corporações ao redor do planeta. Uma pesquisa do TDWI do início deste ano apurou que os silos de dados desconectados são um dos maiores obstáculos que as organizações enfrentam para se chegar a insights de dados mais ágeis. A complexidade é maior ante a profusão do processamento corporativo em diferentes nuvens, muitas de fornecedores diferentes, em combinação com sistemas locais, legados. A mesma pesquisa indica que menos da metade (45%) das organizações avaliadas indicam que estão satisfeitas com o tempo que leva para carregar os dados a partir das plataformas de nuvem. A bem dizer, apenas cinco por cento se declararam "muito" satisfeitas.

Essa mesma pesquisa descobriu que, à medida que as organizações colocam a nuvem mais no centro de sua arquitetura de dados, a movimentação e migração de dados se tornou uma preocupação crescente. Não é à toa. Entre os vários desafios que isso acarreta está o fato de que os programas de extração, transformação e carregamento de dados (ETL) para um grande repositório central ideal podem trazer lentidão ao acesso às informações. Sem falar o custo envolvido.  

Todos buscam empoderamento do usuário, garantindo-lhe informações precisas e atualizadas sobre qualquer assunto. Onde está a solução? Muitas empresas enveredaram pelo caminho de replicar seus dados, centralizando-os em um repositório único onde todos têm acesso. No entanto,  vale a pena pensar diferente, fora da caixa. Em vez de mover os dados para um repositório central, o ideal é ter a possibilidade de enxergá-los onde se encontram, onde estão sempre atualizados, em sua fonte de origem.

A ideia aqui é evitar que as corporações movam grandes volumes de dados para um local físico central – duplicando-os e correndo o risco de não estarem sincronizados com o dado na origem. Isso também traz muita complexidade à governança e à segurança desses dados. O objetivo é prover uma visão completa da empresa de forma ágil em um mundo que sofre transformações radicais muito rapidamente.

A questão aqui é que navegar entre nuvens e demais fontes de dados desgastam o usuário final com complexidade que esse acesso a fontes fragmentadas representa. O problema pede uma nova arquitetura de dados, conhecida por data fabric. Estamos falando de abordagem mais universal e holística para integrar diversos componentes de ambientes de dados fisicamente distribuídos, deixando esta complexidade para uma camada lógica que perpassa e integra todas as fontes de dados.

 É exatamente aqui que a virtualização de dados se torna crucial para um data fabric funcionar. Uma camada de virtualização de dados pode fornecer uma visão única de dados provenientes de fontes diferentes sem que os usuários precisem saber como, ou onde, acessar os seus dados. A camada lógica, na prática, otimiza o processamento de consultas nos repositórios originais dos dados (por exemplo, no CRM ou no ERP).

A virtualização de dados pode ser combinada com outras camadas lógicas como, por exemplo,  regras de segurança, de curadoria de repositórios, de controle de acesso, de diretrizes de governança, catálogo de dados, entre tantas, agregando novos fios lógicos a esse grande e dinâmico tecido de dados.

Essa arquitetura abre janelas importantes, como a possibilidade do uso de inúmeras ferramentas de analytics ou dashboards de preferência do usuário, entre outros recursos estratégicos a executivos das mais diversas áreas de uma corporação, perpassando toda a complexidade de ambientes híbridos, formados por várias nuvens e demais silos de dados, com simplicidade, segurança e agilidade.

É importante ter em mente que sempre existirão silos de dados – especialmente à medida que as organizações aumentam o uso de plataformas de dados de vários provedores de nuvem e, ao mesmo tempo, continuam a manter os sistemas de dados locais.

Mas, com a nova abordagem de arquitetura de dados que a virtualização prevê, o usuário conta com um dado consistente, relevante e de de alta qualidade. Ele se empodera, fica mais autônomo e ágil nas suas tomadas de decisão, as quais são muito melhor embasadas. E a corporação – esse organismo vivo – pode, por sua vez, seguir crescendo, adotando novas nuvens e tecnologias, sem as velhas restrições e a lentidão de acesso aos dados das soluções tradicionais.

Estamos falando de um tecido dinâmico de dados, que cresce, dando conta de novos desafios corporativos, sem perder governança. Ou seja, é uma arquitetura capaz de atender às demandas de dados atuais, futuras e, talvez, acima de tudo, as imprevistas. Aliás, aprendemos bastante sobre os impactos do inusitado em 2020. Depois da pandemia do Covid-19 ninguém duvida que precisamos, sempre, estarmos alertas e prontos para dar conta do inesperado, com reações rápidas, precisas e bem fundamentadas em dados, sob pena de perdermos o timing e, em última instância, o poder de reação.

Marco Wenna, diretor de Vendas da Denodo no Brasil.

Deixe seu comentário