Paradoxos e desafios da virtualização

0

As análises de mercado são irrefutáveis: a virtualização de servidores será a tecnologia com maior impacto em operações e infra-estrutura de TI até 2010, segundo o Gartner. O instituto ainda avalia que a aplicação mudará drasticamente a forma como o departamento de TI gerencia, desenvolve, planeja e custeia os seus serviços. Ou seja, investir em virtualização é chave para a eficiência no alinhamento entre TI e negócios e também manter a empresa conectada ao futuro.
O conceito básico da virtualização de servidores é a capacidade de executar diversos sistemas operacionais em um único servidor físico. Nesse cenário os objetivos mais comuns dos projetos que envolvem virtualização são a consolidação de servidores, implicando na redução dos gastos com energia, espaço e hardware, bem como no aumento da flexibilidade no uso dos servidores e sistemas.
A virtualização é uma tecnologia bastante antiga, mas até então era aplicada apenas em sistemas de grande porte como mainframes e sistemas Risc/Unix com dezenas de processadores. Só recentemente ela se tornou viável em servidores de menor porte baseados em processadores x86 (Intel e AMD), com a multiplicação do número de cores (núcleos de processamento) por chips e a maturidade dos hypervisors – softwares que implementam a virtualização. Isso tudo aliado a constatação de que o nível médio de utilização dos servidores de uma empresa em geral é menor que 10%, ou seja, existe uma capacidade ociosa que pode ser utilizada com a virtualização.
Não é difícil perceber que as vantagens são inúmeras. Entretanto, para desfrutar dos benefícios da solução no longo prazo é importante que as empresas estejam conscientes dos limites na aplicação desta tecnologia para o seu negócio/perfil. Nesse ponto é importante diferenciar claramente a virtualização do chamado grid computing. Enquanto a virtualização implica em rodar diversos computadores virtuais em um único computador físico, o grid computing implica em agregar diversos computadores físicos e criar um grande computador virtual que tem a soma das capacidades individuais. A virtualização é transparente para a maioria das aplicações e sistemas operacionais, enquanto que o grid computing não. É fundamental para as empresas definir qual das configurações utilizar, pois a transição de uma para outra não é simples e implica em mudanças profundas nos sistemas.
Um exemplo de utilização da virtualização é o cloud computing – computação em nuvem, numa tradução livre. Em linhas gerais, ela pode ser definida como um modelo onde o processamento e armazenamento estão localizados em algum lugar, ou vários, na internet e são oferecidos como serviço. Este modelo prevê grande flexibilidade, ou utilizando um termo mais atual, elasticidade – que permite aumentar e diminuir a capacidade de processamento conforme a demanda e, em conseqüência, seu custo.
Embora seja uma evolução de conceitos muito sólidos, o cloud computing ainda traz à baila dúvidas importantes, como qual o modelo de processamento a ser utilizado, que padrões serão adotados, a necessidade de adequação dos aplicativos e, muito importante no mundo corporativo, da segurança – confidencialidade/integridade – no processamento das informações. Sua utilização exige cuidadoso planejamento e customização às especificidades de cada empresa. A questão da segurança, por exemplo, é um dos pontos de atenção apontados pelo Gartner, que envolve questões de acesso privilegiado de usuários, conformidade com regulamentações locais e internacionais, confidencialidade e integridade dos dados, backup e continuidade de TI.
Neste contexto, surge um novo conceito para endereçar algumas destas questões: o private cloud computing, que reúne os benefícios da computação em nuvem dentro de uma rede privada com segurança controlada e possibilidade de interligação com as redes da própria corporação sem uso obrigatório da internet. Outra vantagem desse enfoque é a possibilidade da criação de ambientes híbridos, combinando servidores virtuais e físicos, de acordo com a necessidade.
Ou seja, esse cenário está em constante renovação e transformação. Entretanto, também significa uma grande responsabilidade para os gestores de TI, que têm nas mãos a difícil missão de avaliar cada uma das novas tendências que chegam ao mercado, com a preocupação de entender qual é sua aplicabilidade para as necessidades específicas da sua empresa. O segredo continua a ser a capacidade de avaliar o futuro próximo e aplicá-lo à realidade da corporação, garantindo que o investimento em TI seja revertido em real valor para o negócio.
Alexandre Cadaval é diretor de engenharia e produtos da DHC Outsourcing.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.