Il existe un certain nombre de mesures d'AQ mal orientées, y compris des bugs trouvés. C'est un jeu facile, mais si le logiciel n'a pas beaucoup changé, le nombre de bogues trouvés au fil du temps tendra à zéro. Mesurer les testeurs individuels et le nombre de bugs qu'ils soulèvent EST un moyen d'incitation parmi les types compétitifs, mais peut aussi entraîner de nombreux petits problèmes (ce qui peut être une bonne ou une mauvaise chose).
Certaines possibles mesures utiles comprennent:
- nombre mesuré de nouveaux bugs trouvés dans le domaine (à savoir que vous avez manqué) - cela devrait descendre
- temps pour un nouvel essai et à proximité des questions fixes
- nombre de bugs renvoyés des éclaircissements (devrait diminuer)
- nombre de rapports de bugs fermés pour assertion de test invalide - montre la compréhension, devrait diminuer
Si vos objectifs sont également spécifiés - par exemple passer à un système de test automatisé - cela peut être un moyen de mesurer. Donc, si vous avez 10 000 cas de test, votre métrique pourrait être le nombre de cas de test automatisés, combien d'entre eux passent/échouent.
Il y a un très bon article en discuter à: http://www.claudefenner.com/content/detail/QAMetricsPage.htm
Merci à tous pour les réponses. Nous examinons le pourcentage d'automatisation et décelons les fuites dans la production. Je ne voulais pas parler de quelque chose en particulier, donc je ne voudrais pas «semer» la discussion. Je suis d'accord que compter les bugs (trouvés dans QA) est inutile et ne peut pas vraiment refléter l'effort ou l'efficacité de l'équipe. J'envisage également de faire des vérifications des rapports de bogues pour m'assurer qu'ils respectent les lignes directrices (y compris les étapes à reproduire, etc.). Cependant, je préfère utiliser les données que j'ai déjà au lieu de créer un processus pour générer des données. – 1701G