Algo mudou na forma como as grandes empresas ao redor do mundo estão tratando seus dados. Há uma aceleração na adoção de novas tecnologias para a armazenagem de dados. Só no ano passado, elas cresceram 50% entre 250 grandes empresas globais, segundo a última pesquisa do uso de cloud computing, publicada em abril pela Denodo. Não é de se espantar, portanto, que 53% das corporações apresentem arquiteturas dados híbridas (parte dos dados em sistemas em casa e parte na nuvem) ou de multi-cloud (quando mais de um provedor de serviços de cloud é utilizado).
Mas porque migram para a nuvem? Talvez o primeiro motivo seja o baixo custo operacional – na verdade uma fração –, se comparados às armazenagens tradicionais. Outro forte argumento é o fato de que a migração não requer nenhum investimento em aquisição física de hardware. Há, também o fato de se alcançar maior flexibilidade. A nuvem absorve todo e qualquer crescimento da estrutura de dados que uma empresa possa vir a ter, sem sofrimento. E, por fim, permite o acesso ao dado a partir de qualquer lugar, algo particularmente desejável ante as demandas de mobilidade das empresas ao redor do mundo.
Como está ocorrendo a migração das grandes corporações para a nuvem? Segundo a mesma pesquisa da Denodo, algumas delas, ou 21,34%, estão, simplesmente, espelhando na nuvem a sua estrutura de dados que antes estava local, mantendo a mesma arquitetura tecnológica anterior, ou seja, realizando o Rehost.
O mais comum, no entanto, em 34,78% dos casos, traduz-se em postura mais arrojada: corporações aproveitam o momento da migração para a nuvem e realizam uma reestruturação completa da arquitetura de dados, também conhecida como Refactor, preparando o terreno para a adoção de futuras tecnologias.
O problema é o tempo que essa transformação exige. Uma mudança completa na arquitetura é um processo complexo com modificações em muitos pontos do ecossistema dados. E prevê várias fases. Implica, ainda, no trauma de conviver com duas estruturas de dados: a antiga e a nova, em construção.
É exatamente nesse momento que a virtualização de dados tem grande valor. É uma ótima resposta para esse momento de transição, já que permite que ele se dê sem traumas e garante ao usuário o acesso ao dado, onde quer que ele se encontre, seja na velha estrutura ou na nova, tudo de forma transparente.
Basicamente, a virtualização de dados cria uma plataforma lógica por cima de todos os sistemas – estejam eles no ERP em casa, ou na nuvem, para o acesso aos dados, sem replicá-los. Na prática, a virtualização separa o acesso aos dados do armazenamento de dados. Com isso, isola mudanças nos sistemas, sem que isso exija mudanças nas ferramentas usadas pelo usuário final. A convivência entre as arquiteturas nova e antiga, assim, se torna transparente, abrindo espaço para que a migração dos dados possa se dar por fases, no tempo necessário, mesmo que isso signifiquem anos. E, para o usuário, nada muda. It is business as usual.
A virtualização de dados em nuvem também é um recurso valioso para as arquiteturas multi-cloud, que podem ser desejáveis no caso de provedores com ofertas específicas – como Azure ou Google – ou para a adoção de nuvens especializadas, como as plataformas da SalesForce (CRM) e da Service Now (para a abertura de pedidos de serviço). Assim, aproveita-se do potencial tecnológico ou econômico que cada nuvem oferece, sem penalizar o usuário final, que sem a virtualização seria obrigado a ficar pulando de nuvem em nuvem em busca do dado correto. Em resumo, quanto mais complexa e parruda for a arquitetura de dados, mais valiosa será a virtualização de dados na nuvem.
Evandro Pacolla, engenheiro sênior de Vendas da Denodo.