O desenvolvimento vertiginoso da tecnologia levou o mundo para o uso crescente da informação. No universo corporativo, cada vez mais os processos produtivos e de decisão baseiam-se em imensos volumes de informação que transitam e se acumulam pelos bancos de dados das empresas, coletados das mais diferentes maneiras.
A reboque deste modelo de operação, vem a preocupação com o risco de se basear em informações de má qualidade, o que pode levar a decisões erradas, às vezes até desastrosas. O envio de uma fatura para o endereço errado causa um pequeno transtorno para a empresa e seu cliente.
Já uma cirurgia realizada no joelho errado, por um equívoco de registro na ficha médica, tem conseqüências muito sérias tanto para o paciente quanto para o hospital.
Neste contexto, ganha importância cada vez maior uma nova disciplina: a Qualidade de Dados. Entre outros fatores, informação de boa qualidade auxilia na conquista de novos clientes, potencializa o uso do Data Warehouse e incrementa o retorno dos investimentos em tecnologia.
Por outro lado, informação de má qualidade provoca ineficiência operacional, compromete a tomada de decisão por levar a conclusões equivocadas, abala a confiança dos clientes, além de desgastar seu relacionamento com a empresa (David Loshin, em “Enterprise Knowledge Management: The Data Quality Approach”).
Motivado por este cenário, o MIT – Massachusetts Institute of Technology, conceituado polo de desenvolvimento tecnológico americano, buscou inspiração no Gerenciamento da Qualidade Total (ou Total Quality Management – TQM), que revolucionou os processos de produção de fábrica na segunda metade do século passado, para criar o programa de Total Data Quality Management – TDQM.
Este programa estabeleceu um sólido alicerce teórico e uma metodologia consistente para aprimorar a qualidade da informação nas empresas, disseminando as melhores práticas e incentivando o desenvolvimento de tecnologia para o gerenciamento da qualidade.
Segundo o programa, para garantir a qualidade da informação, vários de seus aspectos – ou dimensões – devem ser considerados: a qualidade vai além da integridade, ou exatidão. É preciso também avaliar, por exemplo, a atualidade, a facilidade de uso, a segurança de acesso, entre outras características.
É no processo de avaliação dessas dimensões que entram as métricas: regras de avaliação da qualidade para cada dimensão, sejam de aferição subjetiva ou objetiva.
A aderência a uma lista de valores permitidos é algo que se pode medir objetivamente, neste caso a integridade da informação.
Em contrapartida, a facilidade de uso somente pode ser medida pela percepção de quem utiliza o dado (Richard Wang e outros, “Data Quality Assessment”, Communications of the ACM, abril de 2002).
O método preconiza que, primeiramente, é preciso escolher os dados relevantes e as dimensões que, para a empresa, mais fazem sentido mensurar. As dimensões subjetivas são medidas por meio da coleta da percepção da qualidade junto aos indivíduos que participam do manuseio dos dados, desde a coleta até o uso, passando pela transformação e o armazenamento.
Usualmente, esta percepção pode ser registrada na escala simples do péssimo ao ótimo.
As dimensões objetivas baseiam-se em regras que podem ser universais ou específicas do negócio da empresa. Em qualquer contexto, é sempre importante verificar a consistência de um endereço, a existência de uma data ou a repetição de um mesmo CPF para diferentes pessoas.
Regras de negócio podem incluir existência de código de produtos, faixa etária permitida para certas transações, coerência entre produto e prazo de entrega. Para cada regra, é possível criar uma métrica que reflita a aderência de um dado a ela, e que portanto é seu “score” de qualidade.
Quando estas métricas são aplicadas no conjunto do banco de dados da empresa, é possível estabelecer uma visão geral da qualidade das informações existente.
Uma vez definidas as métricas, elas passam a ser aplicadas regularmente, constituindo-se um termômetro imprescindível para monitorar a qualidade dos dados da empresa e o resultado das ações de melhoria adotadas ao longo do tempo.
O sucesso de um programa de qualidade da informação em cada corporação passa, necessariamente, pela escolha das dimensões mais significativas para o negócio e de métricas que possam ser regularmente aferidas, de forma a sustentar este programa de maneira permanente.
Somente assim é possível decidir com segurança quais informações podem servir de base para melhorar as ações estratégicas e operacionais da empresa.
*Flávio da Almeida Pires (foto) e Mario Cervo são, respectivamente, presidente e diretor de projetos de qualidade de dados da Assesso. Ambos são fundadores da QIBRAS – Qualidade da Informação Brasil, organização criada para a promoção e fortalecimento do setor, com o apoio do Massachusetts Institute of Technology (MIT)
No comments:
Post a Comment
Digite seu comentario