A importância de empregar métricas para medir, manter e garantir a qualidade das informações

0

O desenvolvimento vertiginoso da tecnologia levou o mundo para o uso crescente da informação. No universo corporativo, cada vez mais os processos produtivos e de decisão baseiam-se em imensos volumes de informação que transitam e se acumulam pelos bancos de dados das empresas, coletados das mais diferentes maneiras. A reboque deste modelo de operação, vem a preocupação com o risco de se basear em informações de má qualidade, o que pode levar a decisões erradas, às vezes até desastrosas. O envio de uma fatura para o endereço errado causa um pequeno transtorno para a empresa e seu cliente. Já uma cirurgia realizada no joelho errado, por um equívoco de registro na ficha médica, tem conseqüências muito sérias tanto para o paciente quanto para o hospital.
Neste contexto, ganha importância cada vez maior uma nova disciplina: a Qualidade de Dados. Entre outros fatores, informação de boa qualidade auxilia na conquista de novos clientes, potencializa o uso do Data Warehouse e incrementa o retorno dos investimentos em tecnologia. Por outro lado, informação de má qualidade provoca ineficiência operacional, compromete a tomada de decisão por levar a conclusões equivocadas, abala a confiança dos clientes, além de desgastar seu relacionamento com a empresa (David Loshin, em "Enterprise Knowledge Management: The Data Quality Approach").
Motivado por este cenário, o MIT – Massachusetts Institute of Technology, conceituado polo de desenvolvimento tecnológico americano, buscou inspiração no Gerenciamento da Qualidade Total (ou Total Quality Management – TQM), que revolucionou os processos de produção de fábrica na segunda metade do século passado, para criar o programa de Total Data Quality Management – TDQM. Este programa estabeleceu um sólido alicerce teórico e uma metodologia consistente para aprimorar a qualidade da informação nas empresas, disseminando as melhores práticas e incentivando o desenvolvimento de tecnologia para o gerenciamento da qualidade. Segundo o programa, para garantir a qualidade da informação, vários de seus aspectos – ou dimensões – devem ser considerados: a qualidade vai além da integridade, ou exatidão. É preciso também avaliar, por exemplo, a atualidade, a facilidade de uso, a segurança de acesso, entre outras características. É no processo de avaliação dessas dimensões que entram as métricas: regras de avaliação da qualidade para cada dimensão, sejam de aferição subjetiva ou objetiva.
A aderência a uma lista de valores permitidos é algo que se pode medir objetivamente, neste caso a integridade da informação. Em contrapartida, a facilidade de uso somente pode ser medida pela percepção de quem utiliza o dado (Richard Wang e outros, "Data Quality Assessment", Communications of the ACM, abril de 2002).
O método preconiza que, primeiramente, é preciso escolher os dados relevantes e as dimensões que, para a empresa, mais fazem sentido mensurar. As dimensões subjetivas são medidas por meio da coleta da percepção da qualidade junto aos indivíduos que participam do manuseio dos dados, desde a coleta até o uso, passando pela transformação e o armazenamento. Usualmente, esta percepção pode ser registrada na escala simples do péssimo ao ótimo.
As dimensões objetivas baseiam-se em regras que podem ser universais ou específicas do negócio da empresa. Em qualquer contexto, é sempre importante verificar a consistência de um endereço, a existência de uma data ou a repetição de um mesmo CPF para diferentes pessoas. Regras de negócio podem incluir existência de código de produtos, faixa etária permitida para certas transações, coerência entre produto e prazo de entrega. Para cada regra, é possível criar uma métrica que reflita a aderência de um dado a ela, e que portanto é seu "score" de qualidade. Quando estas métricas são aplicadas no conjunto do banco de dados da empresa, é possível estabelecer uma visão geral da qualidade das informações existente. Uma vez definidas as métricas, elas passam a ser aplicadas regularmente, constituindo-se um termômetro imprescindível para monitorar a qualidade dos dados da empresa e o resultado das ações de melhoria adotadas ao longo do tempo.
O sucesso de um programa de qualidade da informação em cada corporação passa, necessariamente, pela escolha das dimensões mais significativas para o negócio e de métricas que possam ser regularmente aferidas, de forma a sustentar este programa de maneira permanente. Somente assim é possível decidir com segurança quais informações podem servir de base para melhorar as ações estratégicas e operacionais da empresa.

*Flávio da Almeida Pires (foto) e Mario Cervo são, respectivamente, presidente e diretor de projetos de qualidade de dados da Assesso. Ambos são fundadores da QIBRAS – Qualidade da Informação Brasil, organização criada para a promoção e fortalecimento do setor, com o apoio do Massachusetts Institute of Technology (MIT)

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.