Deux actions de gestion sont possibles au niveau de l’évaluation :
Export de la copie vierge du questionnaire dans un fichier docx.
Établir le corrigé de l’évaluation.
Elles permettent ainsi :
d’accéder immédiatement à une version vierge du questionnaire qui peut être accessible avant le démarrage de l’évaluation.
Et, après l’invitation, d’obtenir le corrigé exact, correspondant au tirage réel des questions présenté au participant.
Menu Formation
Dans le menu formation, les résultats des évaluations passées durant la session de formation sont accessibles dans l’onglet “Résultats”, sous-onglet “Évaluations”.
La fonctionnalité d’export du questionnaire corrigé a été également ajoutée sur cette page.
Une évaluation correspond à une invitation à passer un questionnaire, adressée à plusieurs personnes. Lorsqu’une évaluation est terminée, une synthèse des résultats est présentée : statistiques sur les réponses des participants, temps de réponse, erreurs les plus fréquentes, …
La page regroupant l’ensemble des évaluations est accessible via le menu “Résultats/Évaluations”.
Les tests individuels de chaque participant sont quant à eux consultables dans le menu “Résultats/Par utilisateur”.
La suppression d’un test individuel inclus dans une évaluation se réalise depuis la page “Résultats/Par utilisateur”.
Par exemple, prenons l’évaluation sur le questionnaire “Un petit tour en Antarctique” passée par 8 utilisateurs et supprimons le test de Suzanne Coudry.
Supprimons le test dans la page “Résultats/Par utilisateur”.
Une demande de confirmation apparaît alors afin de valider la suppression.
L’évaluation a été mise à jour.
Cette possibilité n’est pas disponible pour les évaluations de module ou de parcours.
En effet, un module est constitué d’une suite d’étapes, et une évaluation peut valider une étape permettant d’accéder aux suivantes. Supprimer un test déjà validé perturberait fortement le déroulement du module.
Experquiz propose de multiples analyses des scores, sur différents axes et avec de nombreuses possibilités de filtres.
Ces analyses sont disponibles sur l’onglet “Bilans” de la page “Résultats”, comme illustré ci-dessous :
Vous disposez de 5 sous-onglets : par base, par domaine, par tag, par question, et progression.
Nous nous intéressons ici aux 3 onglets du milieu : par domaine, par tag et par question.
Le premier onglet vous apporte une analyse des scores par domaine obtenus par chaque utilisateur. Vous pouvez filtrer :
Une base spécifique
Un questionnaire spécifique, ou bien tous les questionnaires
Un groupe d’utilisateurs ou bien tous les utilisateurs
Un contexte de passage spécifique : évaluation, certification, test libre
Et enfin une période sur laquelle les passages de tests sont considérés.
Une fois tous les filtres réglés selon vos besoins, l’onglet “par domaine” présente, pour chaque personne incluse dans le périmètre, le score obtenu sur chacun des domaines. C’est-à-dire la moyenne des scores obtenus sur toutes les questions qui appartiennent à ce domaine. Notez que si la personne a effectué plusieurs tests sur la période, les valeurs affichées correspondent à la moyenne sur l’ensemble des tests.
D’une manière très semblable, les onglets suivants, “par tag” et “par question”, présentent les résultats consolidés de chaque utilisateur, pour chaque tag et pour chaque question.
Notez que si l’utilisateur qui est connecté et qui consulte ces analyses n’a accès qu’à un périmètre réduit d’utilisateur (que ce soit via la notion de groupe ou bien via l’organigramme de l’entreprise), alors ces pages sont naturellement filtrées sur le périmètre autorisé.
Par ailleurs, ces pages offrent la possibilité d’analyses réalisées par l’Intelligence Artificielle. Mais c’est un autre sujet !
La fonctionnalité nouvelle permet d’exporter ces analyses, soit dans un fichier Pdf, soit dans un fichier Excel.
Lorsque vous cliquez l’un des boutons, un panneau s’ouvre sur la droite, vous permettant d’ajuster le contenu de votre fichier :
Inclure ou non les analyses par domaine, par tag et par question.
Inclure la totalité des utilisateurs ou bien uniquement les utilisateurs pour lesquels il existe des résultats.
Comme pour tous les exports de fichiers qui peuvent être importants, il y a deux possibilités, en fonction du volume de données :
Si vos données incluent moins de 200 utilisateurs, l’export sera synchrone, c’est-à-dire que vous pourrez attendre que le fichier soit créé, et il sera affiché immédiatement.
Si vos données sont plus volumineuses, l’export sera différé, c’est-à-dire qu’il sera réalisé pendant que vous pouvez continuer à travailler. Lorsque le fichier sera prêt, vous recevrez un email d’information.
Dans un cas comme dans l’autre, vous pouvez obtenir le fichier sur la page “Réglages”, onglet “Administration”, sous-onglet “Travaux différés”.
Analyses de la qualité des questions et fiabilité des tests
Chaque fois qu’une personne répond à une question, on obtient de l’information quant à la connaissance de la personne (et c’est en général ce qui nous intéresse le plus), mais on obtient aussi de l’information relativement à la question elle-même. Par exemple, est-ce une question facile (réussie par beaucoup de participants) ou bien difficile (réussie par peu de participants) ?
Mais il y a beaucoup d’autres analyses possibles, et très importantes.
Parlons de la corrélation. D’une manière générale, si l’on a une base de questions portant sur un sujet particulier, disons par exemple le RGPD, on s’attend à ce que “plus une personne connaît bien le RGPD, plus il répond correctement à chacune des questions”. Cela semble très simple et presque évident. Si je considère une question spécifique de ma base, disons la question #23, je m’attends à ce que “plus une personne a un bon score global, plus elle réussit aussi la question #23. Ce n’est pas systématique : il est possible qu’une personne d’un excellent niveau ait échoué à cette question. Mais c’est vrai en général, c’est-à-dire que la probabilité de succès à la question #23 est corrélée à la probabilité de succès au test global.
Si l’on dispose de suffisamment de données, cette corrélation peut se mesurer mathématiquement, et l’on pourra alors se demander, pour chacune des questions, si elle est bien corrélée à la base dans son ensemble. Cette corrélation est une bonne mesure de la qualité de la question, c’est-à-dire de la capacité de cette question de contribuer à la mesure de la connaissance sur cette thématique.
À partir de ce type d’analyse, il est possible de calculer le coefficient “Alpha de Cronbach”, qui est une généralisation du coefficient de Kuder-Richardson, appelé KR-20. On peut dire schématiquement que c’est une mesure d’ensemble de la qualité de la base de questions, autrement dit : plus ce coefficient est élevé, plus les tests utilisant ces questions pourront être fiables. En général, on vise un KR20 supérieur à 70%, et il est courant de parvenir à des valeurs supérieures à 90%.
Une valeur de KR20 inférieure à 70% n’est pas satisfaisante, c’est-à-dire que vos tests ne seront pas d’une fiabilité suffisante. Que peut-on y faire ? C’est assez facile en fait : il suffit de rechercher les questions qui ont une faible corrélation, et soit de les améliorer, soit encore plus simplement de les supprimer.
Les questions qui ont une corrélation négative avec la base dans son ensemble sont vraiment à corriger ou supprimer : ce sont des questions telles que “plus une personne maîtrise bien la connaissance sur cette thématique, moins elle trouve la bonne réponse à cette question”. Autant dire que la question est sans doute soit très mal formulée, soit tout simplement erronée (la bonne réponse n’est pas celle indiquée, les experts connaissent la bonne réponse, donc ils échouent).
À partir de la valeur du KR20, il est possible de déterminer l’erreur standard, c’est-à-dire la marge d’erreur associée aux résultats obtenus à un test utilisant ces questions.
Même avec d’excellentes questions, il est courant que l’erreur standard soit de l’ordre de 5 %, soit environ ±1 point sur une note de 20. Cet indicateur est essentiel : si votre erreur standard est de 15 %, par exemple, un score de 15/20 doit en réalité être interprété comme se situant entre 12/20 et 18/20. Le niveau d’imprécision devient alors préoccupant.
Notons que l’erreur standard dépend à la fois du KR20 et du nombre de questions du test. Plus le test comporte de questions, plus l’erreur standard diminue. C’est pourquoi cet indicateur est surtout pertinent au niveau d’un questionnaire donné, et non à l’échelle d’une base complète de questions.
Retenez surtout ceci : les analyses statistiques de qualité font intervenir des calculs un peu complexes, mais vous n’avez pas à vous en préoccuper, il vous suffit de regarder les résultats et les recommandations qui vous sont présentés.
Ces analyses sont offertes par la plateforme Experquiz depuis des années, mais elles ont été sensiblement améliorées, et rendues plus performantes, dans cette version.
Pour accéder aux analyses qualité, il vous faut en premier lieu activer la fonctionnalité dans les réglages de votre entreprise (Onglet “Paramètres”, section “Bases”).
Au niveau de chacune de vos bases de questions, vous disposez alors d’un onglet “Qualité”, qui se présente comme ceci:
Vous disposez des filtres suivants :
Soit tous les questionnaires, soit l’un seulement des questionnaires de la base.
Vous pouvez choisir un contexte de test particulier, par exemple si vous pensez que les résultats relevant d’une évaluation sont plus pertinents que les résultats en tests libres.
Vous pouvez sélectionner une période spécifique, pour ne considérer que les résultats de cet intervalle.
La page présente ensuite un tableau d’indicateurs, et pour chacun des indicateurs, une pastille de couleur indiquant dans quelle mesure la valeur est statisfaisante, et un commentaire extensif accompagné de recommandations.
Si votre échantillon (les tests correspondant à vos filtres) porte sur moins de 40 utilisateurs, un avertissement est présenté en haut de page, vous mettant en garde sur la fiabilité des analyses. Ce type d’analyse n’est vraiment pertinent que si plus de 40 utilisateurs ont répondu à vos questions.
Les indicateurs sont les suivants :
Alpha de Cronbach / KR20 : voir l’explication au chapitre précédent.
Erreur standard : Voir l’explication au chapitre précédent. Rappelons qu’elle n’a vraiment de sens que pour un questionnaire donné.
Nombre de questions : pour des scores fiables, il faut que vos tests incluent un nombre suffisant de questions, si possible au moins 30 questions. Sur des tests de moins de 20 questions, les aléas sont plus importants, et l’erreur standard sera plus importante.
Nombre d’utilisateurs : comme énoncé en préambule, ces analyses requièrent au moins 40 utilisateurs.
Moyenne globale des questions : on considère qu’un taux de succès moyen autour de 60 à 70% est idéal pour combiner motivation (le participant est motivé par ses succès) et sélectivité (tous les participants ne réussissent pas toutes les questions). Mais cet indicateur n’a pas une importance critique.
Questions avec taux de succès inférieur à 20 %
Questions avec taux de succès supérieur à 80 %
Questions avec faible corrélation : voir plus haut, l’explication relative à la notion de corrélation. Une question de faible corrélation est une question telle que “les participants les plus experts ne répondent pas mieux à cette question que les participants les plus faibles”. La question n’est peut-être pas erronée, mais elle ne semble pas mesurer la même connaissance que les autres questions.
Questions avec corrélation négative : comme vu plus haut, les questions à corrélation négative sont vraiment un souci, il faut absolument s’en préoccuper car elles dégradent la qualité de vos tests.
Questions avec faible Q1-Q4 : on fait appel ici à une notion qui ressemble à la corrélation, mais se calcule d’une manière un peu différente.
Pour ces trois derniers indicateurs, le tableau présente la liste complète des questions concernées, avec un lien permettant de modifier la question dans un nouvel onglet.
Les graphiques
La partie suivante de la page présente 4 graphiques :
La distribution du taux de succès des questions : sur l’axe horizontal, toutes les questions sont rangées du taux de succès le plus faible (les plus difficiles) à gauche, jusqu’au taux de succès le plus fort (les plus faciles) à droite. Sur l’axe vertical, vous pouvez lire le taux de succès des questions. Idéalement, c’est une courbe qui pourrait être une droite conduisant de 0% à gauche jusqu’à 100% à droite. Il n’y a pas véritablement de mauvaise configuration, mais si par exemple la courbe atteint les 100% dès le milieu, c’est-à-dire que la moitié de vos questions ont un taux de succès de 100%, cela signifie sans doutes qu’il manque des questions plus difficiles, car toutes ces questions que tout le monde réussit n’apporte pas tellement à vos scores.
La distribution des taux de succès des participants : sur l’axe horizontal, tous les participants sont rangés du taux de succès le plus faible (les moins experts) à gauche, jusqu’au taux de succès le plus élevé (les plus experts) à droite. Sur l’axe vertical, vous pouvez lire le taux de succès des participants pour chaque décile. Le point à X = 50% indique la médiane des taux de succès des participants.
La distribution des taux de corrélation des questions : sur l’axe horizontal, toutes les questions sont rangées de la corrélation la plus faible à la meilleure. Les questions qui ont un taux de corrélation faible (inférieur à 20%) ne contribuent pas beaucoup à la construction des scores. Les questions qui ont un taux de corrélation négatif dégradent la fiabilité de vos tests. Sur l’image ci-dessous, on voit que quelques questions ont une corrélation négative.
La distribution de la différence des scores des 1er et 4ème quartiles : les utilisateurs sont répartis en quartiles, c’est-à-dire que les 25% les meilleurs (sur l’ensemble du test) constituent le premier quartile, et les 25% les moins bons constituent le 4ème quartile. Pour chacune des questions, on peut alors calculer le score moyen des participants du premier quartile, et le score moyen des participants du 4ème quartile. On calcule ensuite la différence Qt1 – Qt4. Les questions sont rangées par différence croissante. L’écart des quartiles est une mesure de cohérence des questions, de même nature que le coefficient de corrélation.
La matrice de corrélation et les clusters de questions
En bas de la page, vous trouverez la matrice de corrélation complète, qui présente, sous la forme de petits carrés colorés, la corrélation entre chaque couple de questions de la base.
Les cases de couleur verte, plus ou moins intense, représentent un couple de questions qui ont une corrélation positive. Cela signifie que si les personnes réussissent la première question, il est probable qu‘ils réussissent également la seconde. Plus la couleur verte est intense, plus la corrélation est forte.
Réciproquement, les cases de couleur rouge représentent un couple de question qui ont une corrélation négative : lorsque l’on réussit à la première question, alors il est probable que l’on échoue à la seconde.
Sur la base de ces corrélations, on peut construire ensuite des groupes de questions qui sont corrélées entre elles, des clusters. Lorsqu’une personne réussit l’une des questions du clusters, il est probable (très probable ou un peu probable), qu’elle réussisse également les autres questions du cluster.
Cela ne doit pas amener à penser que les questions du cluster sont égales et que l’une seulement pourrait suffire. D’abord la corrélation ne prouve pas que la connaissance mesurée est la même, et de plus il est toujours bon d’aborder une notion sous différents angles, avec des questions variées.
Les boutons d’action
En haut de cette page qualité, vous disposez de deux boutons d’action. Ils ne sont actifs que si l’échantillon inclut suffisamment de participants pour permettre des analyses satisfaisantes.
le bouton AFFECTER LES INFOS QUALITÉ : ce bouton attache les informations calculées ici à chacune des questions de la base. Ces informations peuvent ensuite être visualisées dans la liste des questions de la base, en choisissant la “vue qualité”. Ainsi vous disposerez, pour chaque question, de son taux de succès moyen, sa corrélation à l’ensemble de la base, l’écart des premiers et quatrième quartile.
le bouton RÉPARTIR LES NIVEAUX : ce bouton permet de redéfinir le niveau de difficulté de chacune des questions de la base. Les questions sont rangées de la plus facile (plus haut taux de succès) à la plus difficile (plus faible taux de succès), les 20% de questions les plus faciles reçoivent la valeur 1 pour leur niveau. Les 20% suivants auront la valeur 2. Et ainsi de suite jusqu’aux 20% les plus difficiles, qui auront la valeur 5.
C’est un outil très utile pour affecter un niveau de difficulté fiable. En effet, les contributeurs ne peuvent pas déterminer avec certitude si une question est de difficulté 2 ou bien 3. Avec cette fonctionnalité, vous avez une mesure de la difficulté basée sur les réponses de vos utilisateurs.
Experquiz permet d’importer des données personnelles spécifiques d’un utilisateur dans le fichier d’import (sous le format data:xxx).
Notez bien que l’on ne parle pas ici des données personnelles usuelles telles que nom, prénom, date de naissance, etc. Il s’agit d’attributs tout à fait spécifiques définis par l’entreprise.
Ces données peuvent être insérées comme variable dans la rédaction des diplômes en utilisant la syntaxe [data.xxx]
Vous pouvez les consulter dans le panneau de détails d’un utilisateur.
La recherche sur deux entités a été enrichie pour faciliter votre gestion quotidienne :
Une recherche avancée des utilisateurs
Un moteur de recherche performant pour vos emails
Utilisateurs
Vous pouvez désormais retrouver rapidement un utilisateur grâce à plusieurs critères de recherche. Cela vous permet de mieux assurer son suivi et de retrouver les bonnes personnes au bon moment.
Par identité : Tapez prénom et nom, séparés par un espace. Exemple : Jean Dupont
Par attribut (structure hiérarchique ou autre) : Utilisez un slash / pour cibler un département ou un rôle. Exemple : utilisateur/ress (pour les ressources humaines) Attributs disponibles : direction, département, pôle, équipe, identifiant employé.
Par téléphone : Entrez une suite de chiffres au format de numéro avec des chiffres et des espaces Exemple : 31 31 retournera les numéros contenant cette séquence.(06 31 31 xxx)
Par rôle d’administrateur : Tapez [admin] pour ne filtrer que les administrateurs.
Par permissions : Tapez [permissions] pour trouver des utilisateurs disposant de certaines autorisations spécifiques.
Le suivi des messages est essentiel pour s’assurer que les activités sont bien envoyées et reçues.
Recherche par mots complets : Seuls les mots entiers sont pris en compte. Exemple : Ant ne trouvera pas Antarctique. Champs analysés sont : – Sujet – Corps du message – Destinataire
Recherche libre : Tous les mots saisis doivent apparaître, au moins une fois dans l’un des champs. Exemple : Antarctique aurelie retournera les emails mentionnant Antarctique et envoyés à aurelie@experquiz.com.
Recherche exacte : Mettez une expression entre guillemets pour la retrouver telle quelle. Exemple : « évaluation du 12/03/2025 »
Recherche par email : Tapez l’adresse exacte du destinataire. Exemple : aurelie@experquiz.com
Il est possible de renvoyer une évaluation à ses participants selon différents critères de sélection. Il ne s’agit pas d’un rappel, il s’agit d’une nouvelle évaluation, ciblant tout ou partie des participants d’une précédente évaluation.
Elle peut viser :
Tous les participants précédemment invités
Uniquement les participants qui n’ont pas passé l’évaluation
Dans le cas d’une certification : les participants non certifiés, c’est-à-dire :
Ceux qui n’ont pas passé la certification
Ceux qui l’ont passée mais ont échoué
Le bouton de renvoi est accessible depuis la page des résultats d’évaluations, sur les évaluations fermées (que vous pouvez filtrer).
En cliquant sur le bouton flèche de renvoi, un panneau s’ouvre vous permettant de :
Choisir la nouvelle période d’ouverture de l’évaluation
Adapter l’objet et le message d’invitation
Choisir le critère d’invitation (tous les participants, ceux qui n’ont pas commencé ou ceux qui ne sont pas certifiés)
Envoyer
Dans l’exemple ci-dessus, deux personnes n’ont pas été certifiées et seront invitées à nouveau. Une nouvelle invitation est créée et apparaît dans la liste des invitations
Les formateurs peuvent soumettre des évaluations tout au long de la formation.
Une bonne pratique consiste à proposer une évaluation de positionnement en amont, puis un bilan en fin de formation.
Experquiz permet de mesurer la progression sur l’ensemble des évaluations passées pendant la formation.
Cette progression est représentée par un graphique individuel pour chaque stagiaire.
Si la base thématique comporte des sous-thématiques (domaines) ou des tags, deux courbes permettent de visualiser la progression du groupe sur chacune de ces sous-parties.
Ces résultats numériques et graphiques peuvent être exportés au format Excel.
Dans les résultats d’un utilisateur
Experquiz propose une synthèse des activités par utilisateur. Pour y accéder, rendez vous sur la liste des utilisateurs, puis cliquez soit sur le nom de l’utilisateur [1], soit sur le bouton représentant une courbe [2].
Plusieurs onglets présentent les résultats, les formations, les parcours … jusqu’au journal d’audit de l’utilisateur
Dans le sous-onglet Évaluations de l’onglet Résultats, vous pouvez filtrer la liste des évaluations [1] selon différents critères (bases, contextes, période, …).
Il suffit ensuite de sélectionner les évaluations souhaitées [2], puis de cliquer sur le bouton “Progression” [3] pour afficher la page de visualisation de la progression.
Cette page de progression présente :
Une courbe des scores obtenus pour les évaluations sélectionnées
Une progression avant/après par domaine, si la base thématique en contient
Une progression avant/après par tag, si la base thématique en contient
Le multilinguisme est aujourd’hui une exigence essentielle dans de nombreux contextes de formation et d’évaluation. Jusqu’à présent, il était possible de proposer des évaluations dans différentes langues, mais cela impliquait de dupliquer les contenus dans des bases distinctes, une base propre à chaque langue, et de gérer la traduction en dehors de la plateforme.
Chaque évaluation était spécifique à une langue donnée, les invitations devaient être lancées langue par langue, et l’exploitation des résultats n’était pas globale.
Experquiz propose un mécanisme de gestion multilingue, permettant d’intégrer toutes les langues pratiquées dans votre entreprise, et de présenter à chaque collaborateur les contenus dans sa langue préférée.
Lorsqu’un contenu est créé ou bien mis à jour, les traductions sont automatiquement générées pour chacune des langues cibles souhaitées. Il est possible de choisir soit une traduction entièrement automatique, soit une traduction automatique soumise à la validation ou éventuelle correction d’un traducteur humain.
Grâce à cette évolution, une seule invitation à une évaluation peut être adressée à un groupe de participants ayant des langues différentes, chaque participant voyant les contenus dans la langue de son choix. Cette approche s’applique aux bases avec leurs questions, mais également aux questionnaires eux-mêmes (titres, descriptions, messages).
Voici les principales étapes pour mettre en œuvre cette fonctionnalité dans votre environnement :
Activez l’option multilinguisme dans les paramètres de votre entreprise.
Définissez la liste des langues cibles utilisées dans votre entreprise.
Au niveau d’une base thématique, définissez les langues souhaitées pour les contenus de la base, ainsi que le mode de traduction à utiliser (automatique, manuelle ou mixte).
Utilisez la page “Traductions” pour consulter, valider ou ajuster les traductions proposées.
Attribuez une langue préférée à chaque utilisateur (cela peut être fait automatiquement ou manuellement).
Et le tour est joué : vos contenus s’adaptent automatiquement à la langue de chaque participant, sans duplication ni surcharge de gestion.
Option d’entreprise
Au niveau des réglages de votre entreprise, sélectionnez l’option “Utiliser la traduction multilingue”.
Une fois l’option activée, vous disposez d’un nouveau choix “Traductions” dans le menu principal.
Sur la page “Traductions” [1] onglet “Réglages” [2], indiquez les langues que vous souhaitez utiliser au sein de votre entreprise [3] puis enregistrez votre sélection [4].
Choix de la langue par l’utilisateur
L’apprenant peut sélectionner la langue au moment de démarrer l’activité. Même si sa langue par défaut est l’anglais ou qu’elle n’est pas renseignée, il peut décider de passer le test dans la langue de son choix parmi celles disponibles pour la base.
Exemple:
La base Antarctique est traduite en 3 langues : français, espagnol et polonais.
Les langues préférées de l’utilisateur sont définies dans son profil.
Lorsqu’on l’invite à passer un questionnaire, l’utilisateur peut choisir parmi les 3 langues proposées sur la base.
L’utilisateur choisit l’espagnol : les questions sont alors présentées en espagnol.
Exclusion des textes en majuscules
Si vous activez cette option, les mots ou expressions en majuscules (par exemple “EUROPE”) ne seront pas traduits et apparaîtront tels quels dans le texte cible quelle que soit la langue.
Paramétrage des bases
La suite du paramétrage s’effectue base par base.
Dans le menu des bases, choisissez une base, éditez-la [1] et activez l’option “Traduire les contenus” [2].
Les réglages suivants sont présentés.
Langue initiale de la base C’est la langue dans laquelle les contenus de cette base sont initialement écrits.
Langues cibles La liste des langues pour lesquelles vous souhaitez que les contenus soient disponibles.
Traduction IA automatique Est-ce que vous souhaitez que les traductions soient opérées automatiquement aussitôt qu’un contenu (en particulier une question) est créé ou modifié.
Activation de la traduction manuelle par IA Permet d’utiliser un bouton pour lancer manuellement une traduction par l’IA sur chaque entité. Cette option peut être utilisée avec ou sans traduction automatique.
Validation des traductions IA Voulez-vous que les traductions soient validées manuellement avant d’être utilisées ?
Notez que lorsque vous avez enregistré les options de traduction pour la base, le processus de traduction se lance aussitôt, si l’option de traduction automatique est choisie. Selon le volume des contenus de cette base, le processus de traduction peut prendre quelques minutes, ou quelques dizaines de minutes.
Traduction des bases
Rendez-vous sur la page “Traductions” pour gérer les traductions.
La liste des entités traduites ou à traduire est présentée sur cette page.
Il est possible de les filtrer sur :
1.La base 2.Le type des entités
3.Les langues vers lesquelles faire la traduction
4.Les traducteurs 5.Les statuts de traductions (brouillon, en attente, validé)
6.Filtre de pages
Lorsqu’une traduction est validée, elle est directement utilisée dans les évaluations ou tests libres pour les utilisateurs ayant choisi cette langue.
Les traductions “brouillon” ou “en attente” ne sont pas utilisées dans les évaluations.
Lorsque vous cliquez n’importe où sur la ligne d’une traduction [1], un volet s’ouvre sur la droite vous permettant de gérer la traduction et sa validation.
Si vous cliquez sur le bouton situé à droite de la ligne [2], un nouvel onglet s’ouvre, conduisant à l’édition de l’entité correspondante (la question, le questionnaire ou bien la base).
Sur l’image précédente, l’une des entités a été sélectionnée, et le volet de gestion est ouvert. Le formulaire porte sur la totalité des champs de texte d’une question. Pour chacun des champs, vous disposez (a) du texte initial, (b) de la traduction retenue et (c) de la traduction proposée par l’IA.
Le seul champ modifiable est le champ de traduction retenue.
Lorsque la traduction retenue est exactement identique à la traduction proposée, le champ traduction proposée n’est pas affiché.
À la droite du champ traduction proposée par l’IA, un bouton permet d’accepter la traduction, c’est-à-dire de la recopier dans le champ de traduction retenue. Un autre bouton (2], en haut du volet, permet de recopier les traductions proposées vers les traductions retenues pour tous les champs de l’entité. Le bouton “Assistance IA” [1] invoque à nouveau la traduction par l’IA, cela prend quelques secondes et la nouvelle traduction est disponible. Notez que, en général, ce bouton n’est utile que si vous n’avez pas opté pour la traduction automatique.
Sur ce formulaire vous pouvez également définir le statut de validation [3]. Si la traduction est validée, elle sera utilisée.
Lorsque vous avez accepté ou bien saisi les traductions et indiqué le statut de validation, vous pouvez cliquer sur “Enregistrer et Suivant” [4].
Enfin les boutons [5] vous permettent de naviguer entre les différentes entités de la liste de gauche.
Les langues préférées d’un utilisateur
Vous pouvez indiquer les langues préférées d’un utilisateur en modifiant sa fiche.
Dans le champ “Langues préférées pour les contenus” [1], vous pouvez sélectionner une ou plusieurs langues, parmi la liste des langues définies pour l’entreprise. Notez que vous pouvez également ordonner cette liste de langue en faisant un glisser-déposer sur l’une des langues.
Sur l’image précédente, on voit la distinction entre la langue préférée d’interface [2] et les langues préférées pour les contenus [2]. Le choix de la langue d’interface est une fonctionnalité existante, qui ne concerne que les textes de l’interface utilisateur, par exemple les menus, les onglets, ou bien encore les libellés de champs ou indications de saisie. Les possibilités pour la langue d’interface sont l’anglais, le français et l’espagnol. D’autres langues peuvent être ajoutées si besoin, mais il n’y a pas de processus de traduction automatique.
Les langues préférées pour les contenus [2] concernent, comme on l’a vu plus haut, les questions, questionnaires et bases, et pourront concerner prochainement les modules et enquêtes également.
Les habilitations à traduction
Le processus de traduction est l’objet d’habilitations spécifiques. Bien sûr, un administrateur est toujours autorisé à gérer les traductions. Mais un utilisateur peut également soit consulter les traductions [1], soit les modifier et valider [2], s’il dispose des habilitations correspondantes, comme indiqué sur la copie d’écran ci-après.
Comment cela se passe en pratique ?
Par exemple, Zula Borgeson a choisi le Polonais comme langue, Alexandre Cather, l’Anglais et Suzanne Coudry n’a rien spécifié.
Zoé invite ces trois participants.
Alexandre voit ses questions en anglais :
Et Zula les voit en Polonais :
Suzanne pour laquelle la langue préférée n’a pas été définie, les verra dans la langue initiale de la base thématique. Les scores et réponses de tous les participants sont restitués au même endroit dans la même évaluation.