Types et modes d'évaluation dans HOPEX
Types d'évaluation
HOPEX propose plusieurs types d'évaluation :
• évaluations directes
• évaluations par campagnes et sessions d'évaluation
• collecte de données
Évaluation directe
Il s'agit d'une évaluation à "dire d'expert".
L'évaluation directe peut être unitaire ou multiple.
Évaluation par campagnes et sessions d'évaluation
Il s'agit d'envoyer des questionnaires à un ensemble de répondants.
Les campagnes sont utilisées en standard dans certaines solutions HOPEX. Les évaluations se font par exemple exclusivement par campagne dans HOPEX GRC.

Une campagne d'évaluation peut comprendre plusieurs sessions, chacune ayant son périmètre propre et ses répondants.
Évaluation par collecte de données
L'objectif ici est d'envoyer des questionnaires à des parties prenantes pour collecter des données et remplir automatiquement les propriétés de certains objets.
Vous pouvez, par exemple, recueillir des données concernant des applications (valeurs de caractéristiques).
Voir:
Modes de lancement des sessions d'évaluation
HOPEX permet de lancer des sessions de différentes manières :
• via une campagne d'évaluation : les caractéristiques d'une session peuvent être héritées d'une campagne d'évaluation.
• via un modèle existant : les évaluations peuvent être créées à partir d'un modèle d'évaluation existant. Toutes les informations caractérisant les sessions sont décrites dans le modèle.
• En Mode Ad-Hoc : les évaluations sont créées à partir de listes à compléter pour spécifier les objets du périmètre.
• En Mode Expert : ce mode est réservé aux experts qui souhaitent définir des requêtes et macros. Les évaluations sont réalisées à partir de collections de déploiement, qui permettent de réutiliser les listes d'objets définis dans le périmètre.