As análises de mercado são irrefutáveis: a virtualização de servidores será a tecnologia com maior impacto em operações e infra-estrutura de TI até 2010, segundo o Gartner. O instituto ainda avalia que a aplicação mudará drasticamente a forma como o departamento de TI gerencia, desenvolve, planeja e custeia os seus serviços. Ou seja, investir em virtualização é chave para a eficiência no alinhamento entre TI e negócios e também manter a empresa conectada ao futuro.
O conceito básico da virtualização de servidores é a capacidade de executar diversos sistemas operacionais em um único servidor físico. Nesse cenário os objetivos mais comuns dos projetos que envolvem virtualização são a consolidação de servidores, implicando na redução dos gastos com energia, espaço e hardware, bem como no aumento da flexibilidade no uso dos servidores e sistemas.
A virtualização é uma tecnologia bastante antiga, mas até então era aplicada apenas em sistemas de grande porte como mainframes e sistemas Risc/Unix com dezenas de processadores. Só recentemente ela se tornou viável em servidores de menor porte baseados em processadores x86 (Intel e AMD), com a multiplicação do número de cores (núcleos de processamento) por chips e a maturidade dos hypervisors – softwares que implementam a virtualização. Isso tudo aliado a constatação de que o nível médio de utilização dos servidores de uma empresa em geral é menor que 10%, ou seja, existe uma capacidade ociosa que pode ser utilizada com a virtualização.
Não é difícil perceber que as vantagens são inúmeras. Entretanto, para desfrutar dos benefícios da solução no longo prazo é importante que as empresas estejam conscientes dos limites na aplicação desta tecnologia para o seu negócio/perfil. Nesse ponto é importante diferenciar claramente a virtualização do chamado grid computing. Enquanto a virtualização implica em rodar diversos computadores virtuais em um único computador físico, o grid computing implica em agregar diversos computadores físicos e criar um grande computador virtual que tem a soma das capacidades individuais. A virtualização é transparente para a maioria das aplicações e sistemas operacionais, enquanto que o grid computing não. É fundamental para as empresas definir qual das configurações utilizar, pois a transição de uma para outra não é simples e implica em mudanças profundas nos sistemas.
Um exemplo de utilização da virtualização é o cloud computing – computação em nuvem, numa tradução livre. Em linhas gerais, ela pode ser definida como um modelo onde o processamento e armazenamento estão localizados em algum lugar, ou vários, na internet e são oferecidos como serviço. Este modelo prevê grande flexibilidade, ou utilizando um termo mais atual, elasticidade – que permite aumentar e diminuir a capacidade de processamento conforme a demanda e, em conseqüência, seu custo.
Embora seja uma evolução de conceitos muito sólidos, o cloud computing ainda traz à baila dúvidas importantes, como qual o modelo de processamento a ser utilizado, que padrões serão adotados, a necessidade de adequação dos aplicativos e, muito importante no mundo corporativo, da segurança – confidencialidade/integridade – no processamento das informações. Sua utilização exige cuidadoso planejamento e customização às especificidades de cada empresa. A questão da segurança, por exemplo, é um dos pontos de atenção apontados pelo Gartner, que envolve questões de acesso privilegiado de usuários, conformidade com regulamentações locais e internacionais, confidencialidade e integridade dos dados, backup e continuidade de TI.
Neste contexto, surge um novo conceito para endereçar algumas destas questões: o private cloud computing, que reúne os benefícios da computação em nuvem dentro de uma rede privada com segurança controlada e possibilidade de interligação com as redes da própria corporação sem uso obrigatório da internet. Outra vantagem desse enfoque é a possibilidade da criação de ambientes híbridos, combinando servidores virtuais e físicos, de acordo com a necessidade.
Ou seja, esse cenário está em constante renovação e transformação. Entretanto, também significa uma grande responsabilidade para os gestores de TI, que têm nas mãos a difícil missão de avaliar cada uma das novas tendências que chegam ao mercado, com a preocupação de entender qual é sua aplicabilidade para as necessidades específicas da sua empresa. O segredo continua a ser a capacidade de avaliar o futuro próximo e aplicá-lo à realidade da corporação, garantindo que o investimento em TI seja revertido em real valor para o negócio.
Alexandre Cadaval é diretor de engenharia e produtos da DHC Outsourcing.
- Alexandre Cadaval