Mesurer l'impact
Marine est cheffe cuisinière et elle enseigne l’histoire culinaire dans une école d’hôtellerie. Cette année, elle innove. Elle vient de terminer la création d’un parcours d’apprentissage en ligne que ses étudiant·e·s peuvent suivre en parallèle de son cours. Son objectif est d’aider les étudiant·e·s en difficulté à réussir son cours. Elle est satisfaite de sa publication mais certaines questions subsistent. Comment son parcours sera-t-il perçu par les élèves? Vont-ils le suivre ? Est-ce qu’il aura l’impact escompté ?
Pour obtenir réponses à ses questions, elle a recours à différents outils d’analyse. Avec les réponses obtenues, elle pourra cibler les éventuels problèmes de son parcours.
Dans cette partie, tu découvriras des pistes pour évaluer l’impact de ton contenu (à distance ou directement auprès des apprenant·e·s).
Ma fiche-outil
Comment appliquer cette pratique ?
Après avoir diffusé ta production, récolte les informations nécessaires pour en évaluer l’impact. Ces informations peuvent être d’ordre quantitatif (nombre de personnes qui visionnent le message) ou qualitatif (retour d’avis, sondage).
Méthodologie
S’accorder un temps d’analyse post-diffusion permet de tirer des conclusions pour augmenter l’efficacité de ton partage de connaissances.
Evaluer la satisfaction du public permet de percevoir comment le partage de connaissances est perçu par ce même public. Mais cela ne suffit pas pour déterminer l’efficacité de ce partage. Un·e apprenant·e mécontent·e peut avoir appris des choses.
Il faut donc aussi mesurer le degré d’apprentissage avec lequel les apprenant·e·s sortent du partage du connaissances. Ce degré d’apprentissage peut être déterminé en évaluant les connaissances des apprenant·e·s avant et après le partage. Dans le cas où une évaluation préalable n’a pas pu être effectuée, il est possible de recourir à un groupe contrôle, qui n’a pas participé au partage de connaissances.
Nos conseils
- La démarche qui t’est proposée n’est pas absolue. Une bonne évaluation s’adapte à la production. Dans certains contextes, il ne sera pas pertinent de chercher le motif de participation, par exemple.
- La liste des outils ci-dessus n’est qu’un échantillon des outils disponibles. Retiens que des outils existent et qu’ils peuvent t’aider dans ta démarche d’évaluation.
- Pour comprendre comment activer les Analytics sur Genial.ly, voici une petite vidéo explicative : Genial.ly Analytics
- Garde toujours en tête que l’évaluation de la satisfaction des apprenant·e·s ne suffit pas à déterminer si un apprentissage est efficace. Ce dernier doit faire l’objet d’une évaluation à part entière.
- Pour aller plus loin, tu peux aussi évaluer dans quelle mesure ton public applique les apprentissages dans son quotidien. Mais ce type d’évaluation n’est pas développé dans ce guide.
Besoin d’un exemple ?
Star de la toile
Après trois années de test auprès de ses étudiant·e·s, Marine décide de donner accès au grand public à sa plateforme. Elle a donc créé un site internet. Un an plus tard, elle décide d’évaluer sa production. Elle utilise Google Analytics pour découvrir le nombre de personnes qui se sont rendues sur son site. Parmi ce nombre, elle apprend que 80% du public s’est lancé dans le parcours mais uniquement 30% l’a complété à 100%. Pourquoi ? Pour le savoir, elle décide de s’intéresser à son public. Les participant·e·s devaient laisser leur adresse mail pour se lancer dans le parcours. Elle décide donc de leur envoyer un sondage pour connaitre leur profil, leurs motivations, leurs ressentis, etc.
Dans ce cas-ci, c’est difficile pour Marine d’évaluer l’impact de son contenu sur la situation des apprenant·e·s. Cuisinent-ils·elles vraiment mieux ? Pas évident à savoir concrètement. Mais elle s’adapte. Elle décide d’intégrer le sujet dans le sondage. Certes, elle n’aura pas connaissance de l’impact effectif de sa production. Mais au moins, elle aura la perception des apprenant·e·s. C’est mieux que rien !
Grâce à ces retours, elle a pu cibler certains problèmes et elle va à présent pouvoir s’atteler à les solutionner.