Os problemas econômicos mundiais em curso em 2009 podem reduzir este ano o crescimento do mercado de TI de 5,8% para 2,3%, segundo o Gartner. Dada a situação econômica atual, cheios de incertezas, dúvidas e muitos perigos reais, as empresas tornam-se conservadoras e relutantes com relação a investimentos. O problema é agravado ainda mais pela escassez de talento devido a um mercado de trabalho restrito ao longo dos últimos anos. Contudo, reduções não deveriam ser a única saída, na medida em que cada centavo gasto é igualmente importante para abrir as portas às mudanças positivas.
A mudança não acontece apenas por causa da tecnologia e da perspectiva do armazenamento, mas por meio de líderes que têm clareza ao ver o armazenamento como um agente de mudança para o aperfeiçoamento dos negócios e habilidade de liderança para empregar as novas tecnologias em problemas reais. Atualmente, o CIO é surpreendido em situações em que é necessário fazer o corte de custos, mas sem deixar de crescer e a devem possuir uma compreensão clara do ambiente de negócios, dos custos contraídos e da implementação de soluções, que oferecem ao executivo os meios para maximizar efetivamente o desempenho da empresa.
Quando tratamos de armazenamento de dados, falamos na importância elevada de informações para os negócios, custos crescentes do gerenciamento de complexas redes de armazenamento e aumento da pressão para manter ou reduzir os custos de TI, sem desperdícios ou erros. Esses são alguns dos problemas enfrentados pelos CIO's hoje em dia, e mesmo se a atual arquitetura de armazenamento funcionar bem, os executivos terão ainda que lidar no futuro com um ritmo constante e crescente de mudanças tecnológicas, migrações e atualizações exigidas por eles. O mandamento universal para o CIO, hoje e no futuro próximo, se divide em três desafios tão básicos quanto difíceis: Reduzir custos, lidar com a complexidade e aumentar a qualidade do serviço.
Devido à maneira de comercialização do armazenamento, as empresas acabam comprando até 75% a mais de capacidade do que elas realmente precisam. O fato é que é simplesmente mais barato comprar armazenamento a mais do que contratar mão-de-obra para gerenciá-lo, de modo que a primeira reação da empresa a uma crise de armazenamento será a compra de uma maior capacidade de armazenamento. Claro que existe a real possibilidade das diversas unidades de negócio em uma determinada organização não quererem compartilhar seu armazenamento, de modo a comprarem infraestrutura por projeto e de diversos fabricantes diferentes, sempre visando o menor custo. O resultado é um emaranhado de sistemas de armazenamento e de softwares de gerenciamento, que exigem equipes de TI especializadas, ativos de armazenamento massivamente sub utilizados e "armazenamento encalhado", um desperdício para orçamentos já tão apertados. Em última análise, enfrentar as exigências da explosão do crescimento dos dados simplesmente comprando mais armazenamento pode custar caro.
Entretanto enquanto nos preparamos para tempos difíceis à nossa frente, é animador saber que especialistas de mercado, como o IDC, são da opinião de que de todas as categorias de hardware, a previsão pós-crise sugere que o armazenamento, um recurso de crítico de TI que garante uma implementação efetiva otimizando eficiência perante tais desafios econômicos, tenha um crescimento positivo em 2009.
Resultados que Importam: Soluções Efetivas
Métricas: A história mostra que as grandes empresas com visão de futuro alavancaram sua tecnologia para dar uma virada em seu destino em tempos de crises como a que vivemos. O primeiro passo é fazer um estudo em profundidade da situação. Uma série de métricas são empregadas para avaliar o impacto econômico das soluções de armazenamento, mas três delas são mais comumente usadas: CAPEX (Capital Expenditure – Despesas de Capital), OPEX (Operational Expenditure – Despesas Operacionais) e TCO (Total Cost of Ownership – Custo Total de Propriedade). CAPEX se refere a investimentos que agregam valor ao negócio e normalmente vêm na forma de compra de ativos ou como expansão de sua vida útil. Ao passo que o OPEX representa os custos associados ao gerenciamento, suporte, manutenção e atualização dos investimentos ao longo de seu ciclo de vida. Já TCO é uma estimativa financeira concebida para auxiliar a avaliar os custos do desenvolvimento da tecnologia da informação durante todo seu ciclo de vida.
Nesses tempos ameaçadores, medir o ROI (Return of Investments – Retorno sobre os Investimentos) para calcular a economia obtida baseada nas métricas mencionadas não é suficiente e preciso, uma vez que ele é baseado nos novos ativos em processo de compra e não leva em conta os ativos já existentes, que podem ter valor. Medir o gasto de TI em comparação com as tendências e índices da receita do negócio por meio do ROA (Return on Assets – Retorno sobre os Ativos) é uma abordagem mais estratégica na medida em que se considera o impacto de um investimento na base total de ativos em vez de um projeto específico. Medir o ROA torna os ativos já existentes mais eficientes e produtivos e é importante que as organizações de TI desenvolvam um conjunto comum de métricas que permitam às empresas investigar uma maior variedade de critérios para ajudá-las a calcular seu ROA real.
Por exemplo, a Hitachi Data Systems desenvolveu um conjunto de métricas denominadas "Modelo Econômico do Armazenamento", que vai além dos tradicionais cálculos unidimensionais do TCO. Usar o armazenamento em camadas e a virtualização auxilia os clientes a compreender a verdadeira economia em OPEX quando empregados em sua infraestrutura de TI.
O desenvolvimento de métricas inovadoras é particularmente importante especialmente em uma época em que a economia mundial exige novos tipos de análises econômicas para justificar um grande gasto em TI, com novas pessoas e perspectivas.
Virtualização: Auxilia as empresas a favorecerem a criação de um data center superior econômicamente e ecologicamente, com três características importantes: reciclagem, utilização e otimização. Um modelo de virtualização, que começa com a reciclagem e se desenvolve por meio da utilização e otimização permite à área de TI encadear todo seu armazenamento, empregá-lo conforme a necessidade de atender os requerimentos das aplicações e gerenciá-lo usando um conjunto comum de software e processos. Conforme o ambiente amadurece, a área de TI passa da simples consolidação e migração de dados, a camadas corretamente dimensionadas e à mobilidade dos dados, à implementação de uma alocação automatizada, baseada em políticas (ou mesmo em conteúdo) em sua camada ideal. A virtualização, especialmente a baseada na controladora, barateia funções – reduzindo o custo do hardware, infraestrutura de SAN e ambiente – oferecendo uma única interface de gerenciamento para o hardware de armazenamento virtualizado e aumentando a vida útil dos ativos.
Armazenamento em Camadas: As empresas que usam uma única arquitetura de armazenamento guardam todos os dados em um único pool, comprado a uma taxa geral, com uma taxa de crescimento esperada aplicada uniformemente a todas as aplicações e dados no pool – sem levar em conta suas necessidades individuais de recursos ou seu valor de mercado. Os dados de alto valor tendem a receber recursos insuficientes, enquanto os dados de baixo valor se beneficiam de mais recursos do que necessitam. Isso faz com que o armazenamento seja subprovisionado e escassamente utilizado, acarretando um CAPEX relativamente alto. Já o armazenamento em camadas representa uma alternativa superior ao alocar a aplicação correta na camada de armazenamento certa para os requisitos de acesso atuais e futuros. Uma vez que as camadas de armazenamento representam vários níveis de serviço e custos, estratificar o armazenamento por meio de camadas de menor custo (diferentemente de uma camada única e de alto custo) resulta em menor CAPEX nos próximos anos. O armazenamento em multicamadas possibilita que fatores como custos e erosão do preço sejam alavancados ou diluídos entre as diversas camadas, reduzindo assim o CAPEX em curto prazo. Em conjunto com a virtualização, a capacidade de mover dados dinamicamente (promovê-los ou demovê-los entre as camadas de armazenamento) usando um software automatizado auxiliará as empresas a alinharem seus custos de forma mais precisa às necessidades do negócio sem incorrer no risco de uma migração de dados manual e disruptiva.
Provisionamento Dinâmico: O software de Provisionamento Dinâmico reduz o CAPEX ao aumentar a eficiência relativa de cada bloco de armazenamento alinhando o consumo das aplicações de armazenamento à sua alocação. Com isso, as empresas não mais precisam dedicar espaço físico a um armazenamento que é alocado, mas nunca usado. O que resulta em um menor espaço físico ocupado para o armazenamento remanescente. O melhor desempenho derivado dos recursos "wide striping" do provisionamento dinâmico também proporciona uma economia indireta do CAPEX reduzindo a quantidade de infraestrutura necessário para obter um certo nível de desempenho.Segundo analistas, as empresas fazem uso de 30% a 40% de seus equipamentos de armazenamento, Com esta tecnologia este uso pode chegar a 85%.
O Provisionamento Dinâmico pode também reduzir substancialmente o OPEX associado à coordenação e ao trabalho humano envolvidos no provisionamento. Provisionar o armazenamento de um pool virtual reduz os custos de administração poupando o tempo necessário para provisionar o novo armazenamento. Simplifica, em alto grau, o processo de provisionamento, reduzindo o custo com mão-de-obra ao aumentar o número de terabytes que um administrador pode gerenciar.
VTL/Deduplicação e Arquivo Ativo:
Talvez o argumento mais convincente para o VTL e a deduplicação resida na esfera da redução de custos. Eles possibilitam que as empresas aperfeiçoem seus investimentos atuais ao propiciar uma integração fácil e impecável com os ambientes de back-up existentes. O que pode beneficiar com uma economia de custo eliminando e comprimindo dados e reduzindo o tempo necessário de back-up. Além de eliminar dados redundantes ou duplicados, o armazenamento físico pode ser reduzido em cerca de até 25 vezes, reduzindo custos com as bibliotecas de fitas,, sem comprometer a integridade dos dados armazenados.
Soluções de arquivamento auxiliam a preservar e a autenticar dados reparados assegurando total segurança aos ativos digitais. Porém, muitas soluções de arquivamento do mercado trazem recursos de "Instanceamento Único" (Single Instancing) para reduzir substancialmente as duplicações dos ativos de informação. As aplicações mais comuns em que a maior quantidade de duplicação reside são aquelas com dados não-estruturados como servidores de arquivo e sistemas de e-mail. Uma solução de arquivamento tem o benefício duplo de somente armazenar dados duplicados uma vez, enquanto otimiza o desempenho e o custo do sistema de produção ao manter somente os dados mais valiosos.
Edson Bispo é presidente da Hitachi Data Systems no Brasil