O Big Data é um dos conceitos da moda no mundo de TI. Quando revisamos a maioria das pesquisas e análises que surgem dos estudos realizados por grandes consultorias especializadas no assunto, vemos que os CIOs das empresas têm entre suas necessidades mais importantes implantar o Big Data.
Por outro lado, entende-se que existe certa confusão sobre como aplicá-lo, como instalá-lo e inclusive sobre o que ele é, e primeiro devemos entender o que é Big Data.
O Big Data é a gestão e a análise de enormes volumes de dados que não podem ser tratados de maneira convencional. Isso porque superam as capacidades das ferramentas de software normalmente usadas para a captura, gestão e processamento de dados. Isso faz com que seja necessário ter importantes infraestruturas, diversas tecnologias e serviços com os quais seja possível dar soluções ao processamento de grandes quantidades de dados (tanto estruturados, quanto não estruturados ou semiestruturados). Exemplos disso são arquivos de dados, imagens digitais, mensagens por redes sociais, e-mails, scanners médicos, etc.
Os usuários contam hoje com uma infinidade de dispositivos através dos quais podem se conectar e acessar serviços digitais (celulares, tablets, smartphones, netbooks, notebooks, GPS, o tradicional PC, câmeras, etc). Ao mesmo tempo, as vias de acesso aos serviços se diversificaram, às redes privadas que as empresas usavam somou-se primeiro à internet e em seguida às redes de banda larga móveis. A variedade de dispositivos inteligentes, a facilidade de acesso e o consequente aumento da quantidade de usuários, e o tipo de dados (alfanuméricos, voz, vídeo, imagens, etc.) têm geraCOdo o crescimento exponencial do volume de dados que se conhece como Big Data.
O objetivo do Big Data é converter dado em informação que facilite a tomada de decisões, inclusive em tempo real, para transformá-lo em uma oportunidade de negócio. As empresas já estão usando o Big Data para entender o perfil, as necessidades e o sentimento dos seus clientes sobre os produtos e serviços oferecidos.
Para poder levar adiante os processos de aquisição, extração, integração, análise e intepretação dos dados, não apenas será importante contar com tecnologias que possam manejar o volume, a variedade e a velocidade, mas também com um novo modelo de processamento através do qual seja possível gerar, a partir desses dados, o valor esperado e, claro, com as ferramentas necessárias para implementação e suporte.
Por que falamos em um novo modelo de processamento de dados? Basicamente, porque os métodos de análise e consulta de grandes volumes de dados são fundamentalmente diferentes das análises estatísticas tradicionais baseadas em pequenas amostras. Estes dados costumam ser mais dinâmicos e heterogêneos, e também poderíamos dizer que são mais complexos, já que na hora de analisar algum deles, pode ser necessário incorporar os metadados, ou para automatizar o processo, poderíamos ter que recorrer a definições semânticas. Podemos reconhecer, inclusive, que em determinadas situações, podem ser menos confiáveis. No entanto, mesmo nestas condições, podem ser mais úteis para o negócio do que as amostras pequenas usadas nas análises tradicionais. Além disso, este grande volume de dados interconectados forma grandes redes de informação que podem ser exploradas para compensar a falta de dados, para comparar os casos conflitantes, ou para validar sua veracidade.
Quando falamos em Big Data, e falamos do volume, da variedade e da velocidade, devemos somar também duas importantes características que, por si só, são fundamentais para a tomada oportuna e eficaz de decisões, que são a veracidade e o valor deste dado. A veracidade significa a confiança dos dados, extrair dados de qualidade e eliminar aqueles que não correspondem.
CIOs.
Jesus Diez, diretor sênior de produtos para Data Center da Level 3 Communications, na Venezuela.