Вы находитесь на странице: 1из 8

Distances et médiations des savoirs

Distance and Mediation of Knowledge

25 | 2019 :
Varia
Débat-discussion

Les Learning Analytics en question


Panorama, limites, enjeux et visions d’avenir

Daniel Peraya

Texte intégral
Merci à L. Massou, P. Moeglin, C. Peltier et N. Roy : leurs ressources, leur écoute et leurs avis ont contribué à l’élaboration de ce
texte.

Prologue
1 Aujourd’hui, de très nombreuses recherches en sciences de l’éducation recourent à ce qu’il est convenu d’appeler les Learning
Analytics (LA)1 ou l’« analytique des apprentissages numériques » (Labarthe et Luengo, 2016). Cette approche est mise en œuvre
lorsqu’il s’agit d’étudier, dans des environnements informatiques pour l’apprentissage humain (EIAH)2 comme dans les dispositifs
de formation partiellement ou entièrement distance, les processus d’apprentissage, les modèles ou les profils d’étudiants, de faciliter
le travail d’encadrement des enseignants et des tuteurs, de soutenir les processus de métacognition et d’autorégulation des étudiants
eux-mêmes, de prédire la persistance de ceux-ci et leurs chances de réussite dans la formation. Plusieurs facteurs ont contribué à
renforcer ce courant : le succès rencontré par les plateformes numériques d’apprentissage et leur large diffusion depuis les années
2000 suivies quelque dix années plus tard par l’explosion des Mooc. Ce contexte a généré des masses importantes de traces relatives
à des apprenants toujours plus nombreux. Poellhuber, Roy et Moukhachen (2017), citant Shah (2015), avancent à propos des Mooc,
au niveau mondial, les chiffres de 35 millions d’apprenants pour cinq cents universités. Il s’agit donc bien d’une masse de données,
un « gisement », terme consacré qui s’inscrit en droite ligne dans la métaphore « minière » du Data Mining (Labarthe et Luengo,
2016). De plus, ces traces, de nature multimodale3 (logs, textes, images, vidéos, etc.), sont recueillies automatiquement par des
dispositifs embarqués dans les plateformes et, de plus en plus fréquemment, ces données sont interopérables.
2 De façon très générale, il s’agit d’utiliser l’importante quantité de traces – on parlera de Big Data4 – laissées par les très nombreux
utilisateurs – ils se comptent en dizaines, en centaines de milliers selon les cours – des plateformes virtuelles d’enseignement et de
mise à disposition de ressources en ligne pour produire, grâce à des méthodes et à des traitements statistiques plus ou moins
sophistiqués (la fouille des données ou Data Mining), des connaissances sur les comportements de leurs utilisateurs. Les premières
définitions qui semblent faire référence sont celles de Siemens : « Learning analytics is the use of intelligent data, learner-
produced data, and analysis models to discover information and social connections, and to predict and advise on learning »
(Siemens, 2010, cité par Dioudi, 2018). Un an plus tard, Siemens reformule sa définition en ces termes : « Learning analytics is the
measurement, collection, analysis and reporting of data about learners and their contexts, for purposes of understanding and
optimising learning and the environments in which it occurs ». (Siemens, 2011, cité par Dioudi, op. cit.). La différence est
d’importance : l’auteur introduit deux nouveaux objectifs : d’une part, la compréhension des processus d’apprentissage et du
contexte à côté des fonctions de découverte et de prédiction et, d’autre part, l’amélioration de ces processus ainsi que des
environnements d’apprentissage. Enfin, la référence aux modèles d’analyse semble moins prégnante. Cette seconde définition
semble réintroduire une dimension humaniste dans la conception des LA.
3 Depuis, les définitions ont évolué et se sont complexifiées, comme l’atteste la définition de Pardo, Poquet, Martinez-Maldonado et
Dawson :

« The areas of learning analytics (LA) and educational data mining (EDM) explore the use of data to increase insight about
learning environments and improve the overall quality of experience for students. The focus of both disciplines covers a wide
spectrum related to instructional design, tutoring, student engagement, student success, emotional well-being, and so on. » (2017,
p. 163).

4 Dans le domaine francophone, les traductions de l’expression anglaise, comme d’ailleurs les définitions, sont nombreuses et il n’y
a pas de consensus parmi les chercheurs (Dioudi, 2018). Seclier (2017) par exemple en propose la définition suivante : « L’analyse
de l’apprentissage (Learning Analytics) est une tendance émergente en France, surtout dans l’enseignement supérieur. Le but des
Learning Analytics est d’analyser les traces numériques laissées par les apprenants afin de mieux les comprendre et d’optimiser
l’apprentissage »5. Cette définition paraît cependant limitative, car l’approche, nous l’avons vu, vise aussi l’amélioration des
environnements dans lesquels prennent place les processus d’apprentissage. Ce dernier aspect est rappelé par Venant (2017 et
2018), soulignant ainsi le lien entre les LA et un courant important en France, celui des recherches portant sur le design des EIAH.
Seclier reviendra d’ailleurs en peu plus tard, en mars 2017, sur sa définition, introduisant alors l’optimisation des environnements
comme un des objectifs des LA (2017).
5 Notons à ce propos que les traductions françaises du terme Learning Analytics, comme d’ailleurs le terme anglais original,
méritent d’être interrogées. La traduction que proposent Labarthe et Luengo, « analytique des apprentissages numériques » ou
encore l’expression « numérisation des activités d’apprentissage » (2016, p. 14) semblent impliquer que l’apprentissage soit
ontologiquement numérique, ce qui n’est pas admissible dans la mesure où il s’agit toujours des processus d’apprentissages
cognitifs, comportementaux, socio-affectifs humains. Certes, ces processus se déroulent dans un environnement partiellement
numérique6 et c’est dans celui-ci uniquement que l’apprenant laisse des traces numériques de son activité. Les fondements de cette
métonymie fondatrice posent donc questions. Elles sont identiques à celles qui ont généré la discussion menée notamment par
Cerisier (2011) à propos du terme de « culture numérique » auquel cet auteur propose de substituer celui de « culture à l’heure du
numérique ». Une seconde traduction, largement partagée par les chercheurs francophones, « analyse de l’apprentissage » (voir ci-
dessus, Seclier, 2017) contient un implicite assurément contestable : l’analyse de l’apprentissage s’identifierait au champ de l’analyse
de l’apprentissage, qui serait par voie de conséquence née avec les environnements et les traces numériques. L’origine disciplinaire
des LA (informatique, mathématiques, statistiques), en dehors du champ de l’éducation, peut expliquer, partiellement en tous cas,
ces dénominations et les implicites qu’elles contiennent.
6 Labarthe et Luengo (2016) parlent aussi de « la science des données de l’apprentissage » qui renvoie sans doute aux expressions
de langue anglaise « Data Sciences » et « Educational Data Mining ». Pour ma part, j’adopterai l’une des trois définitions
proposées, en France, par le groupe de travail de la Direction du Numérique pour l’école (DNE) (Dioudi, 2018, p. 7) : « Analytique
des activités d’apprentissage instrumentées »7, dans la mesure où elle rend mieux compte des caractéristiques majeures des
processus analysés. Cependant, pour alléger la lecture du texte, j’utiliserai aussi souvent l’acronyme LA.
7 L’analytique des activités d’apprentissage instrumentées – basée sur des techniques informatiques, mathématiques et statistiques
– est souvent critiquée par les chercheurs en sciences humaines et, sociales, parmi lesquelles les humanités numériques et les
sciences de l’éducation, pour des raisons épistémologiques et éthiques, dans la mesure où « le principe même du Data Mining est
étranger aux théories sur le comportement humain comme la linguistique, la psychologie ou la sociologie » (Labarthe et Luengo,
2016, p. 6). Néanmoins, les LA suscitent un intérêt croissant depuis les années 1990 et de nombreuses applications sont aujourd’hui
implémentées dans les EIAH, dans les LMS comme dans les ENT, tandis que des chercheurs de plus en plus nombreux y ont recours
pour atteindre des objectifs parfois très différents.
8 Les EIAH, les dispositifs de formation partiellement ou entièrement à distance constituent un terrain empirique privilégié pour
les approches qui relèvent de l’analytique des activités d’apprentissage instrumentées : énormes gisements de données numériques,
massification des apprenants et des usages (songeons aux Mooc). Dans ce contexte se sont renforcées des problématiques propres à
la distance : importance du soutien aux apprenants, nécessité de maintenir leur engagement et leur persistance dans la formation,
adaptation et personnalisation de leur parcours d’apprentissage, etc. Toute la littérature s’accorde donc sur ce point : « Open and
distance learning (ODL) institutions present an ideal context for the use of LA as, with their large student numbers and the
increasing use of the internet and mobile technologies, they already have a very substantial amount of data available for analysis
with analytics. » (Tak Ming Wong, 2017, p. 21).
9 Au fil des numéros de cette année, la rubrique abordera, dans une perspective globale et critique, cette approche émergente dans
le cadre de la formation entièrement ou entièrement à distance : quels en sont les principaux domaines de recherche ? Quels en sont
les avantages, mais aussi les limites ? Quels en sont les enjeux, des points de vue de l’épistémologie, de la pédagogie, de la
méthodologie de la recherche, de l’ingénierie des dispositifs de formation et/ou des EIAH, mais aussi de celui des institutions ? De
quelle(s) vision(s) d’avenir l’analytique des activités d’apprentissage instrumentées est-elle porteuse pour les différents acteurs
(enseignants-chercheurs, apprenants, gestionnaires) ?

Un peu d’histoire, pour y voir plus clair


10 En 2016, Labarthe et Luengo ont publié un rapport8 très complet sur la généalogie, les objectifs, les approches et les méthodes,
enfin les domaines des recherches caractéristiques de ce courant. Les auteurs remontent son origine aux méthodes de recherche
nées dans années 60 à la rencontre de l’informatique et de la statistique. Les travaux donnèrent progressivement naissance à une
discipline particulière, en 1989 d’abord sous le nom de Knowledge Discovery in Databases (KDD) – en français, « Extraction de
Connaissances à partir des Données » (ECD) (Decourt, 2018) –, puis, dans les écrits de Hyashi (1996) sous l’appellation de
« sciences des données » (Data Sciences). En 2003 est créé le Journal of Data Science (Labarthe et Luengo, op. cit.). Les auteurs
rappellent la création de la revue « pionnière » Computers in Biology And Medicine en 1970 (Baker et Siemens, 2014, cités par
Labarthe et Luengo, 2016, p. 6).
11 À ce sujet, on doit rappeler l’existence du courant de l’Evidence-Based Medicine (EBM), né dans les années 1980 et défini comme
« l’utilisation consciencieuse, explicite et judicieuse des meilleures données disponibles pour la prise de décisions concernant les
soins à prodiguer à chaque patient [...] une pratique d’intégration de chaque expertise clinique aux meilleures données cliniques
externes issues de recherches systématiques » (Rey, 2005). En Angleterre, dans les années 1990, est née une approche pédagogique
inspirée de l’EBM, l’Evidence-Based Education, dans un contexte d’un large mouvement de critique de la recherche traditionnelle
en sciences de l’éducation considérée comme trop éloignée du terrain et de ses acteurs (Hargreaves, 1996). Mœglin qualifie cette
approche de néo-industrielle dans la mesure où :

« Dans cette perspective, s’impose le recours aux techniques de profilage des étudiants couplant intelligence artificielle et traitement
statistique ; y contribuent des technologies logicielles aptes à – ou, plus exactement, censées être aptes – à analyser quasiment en
temps réel et à l’insu des individus concernés des masses importantes de données hétérogènes et complexes, désignées par le terme
« Big Data. » (Mœglin, 2016, p. 30).

12 Cette approche sous-estime la complexité des processus sociaux et utilise des méthodes quantitatives et le recours à des
indicateurs standardisés. Et c’est pour ces raisons qu’à l’époque déjà elle a fait l’objet de nombreuses critiques (Hargreaves, 1996).
13 Néanmoins, dès 1994, les méthodes issues du Data Mining sont popularisées dans le monde de la recherche en éducation
notamment à cause de leur développement et de leurs succès dans le marketing et le monde de l’entreprise. Dans le premier cas, il
s’agit de mieux connaître les habitudes, les goûts des consommateurs afin de personnaliser l’offre de vente qui leur est destinée
(one-to-one relationship) tandis que dans le second, les Business Analytics9 ont pour objectif de fournir des connaissances utiles à
la prise des décisions relatives à la gestion de l’entreprise. On retrouve d’ailleurs cette tendance aujourd’hui sous le terme
d’Academic Analytics, défini comme « the process of evaluating and analysing organisational data received from university
systems for reporting and decision-making reasons » (Campbell et Oblinger, 2007).
14 Ces approches formelles, qui permettent d’entrevoir une nouvelle approche de l’analyse des processus d’apprentissage, suscitent
donc l’intérêt croissant de chercheurs dans la continuité des travaux relatifs à l’intelligence artificielle, aux tuteurs intelligents et à la
modélisation de l’usager dans la perspective d’un apprentissage adaptatif (Atkinson, 2015). Progressivement la discipline émerge en
2007 « sous le nom d’Educational Data Mining » à la conférence ITS (Intelligent Tutor Systems) de Montréal en 2000 (Gauthier,
Frasson et VanLehn, 2000). Depuis 2008, EDM désigne une conférence internationale annuelle. » (Labarthe et Luengo, 2016, p. 8).
En 2009 naît la première revue consacrée à ce champ. Le Journal of Educational Data Mining (JEDM) puis, en 2011, sont créés la
Society for Learning Analytics Research (SoLAR) et le Journal of Learning Analytics (JLA) ainsi que leur propre conférence
internationale Learning Analytic for Knowledge (LAK).
15 Ainsi se sont constituées deux communautés internationales, majoritairement anglophones, qui, bien qu’elles partagent de
nombreux objectifs communs, développent des approches différentes (Labarthe et Luengo, 2016). Pour les membres d’EDM, la
conception d’algorithmes vise ainsi à donner au logiciel la capacité de prédire les résultats d’un apprenant et de personnaliser sa
stratégie d’apprentissage. Dans le sillon de SoLAR en revanche, modélisation et visualisation des données sont transmises aux
acteurs de l’apprentissage (apprenant, personnels d’éducation, enseignants, etc.). Dans le premier cas, il s’agit donc « de réduire
progressivement le système d’apprentissage à ses composantes principales, en modélisant séparément les apprenants, les tuteurs,
les domaines enseignés » (p. 9), tandis que les chercheurs de la communauté SoLAR privilégieraient une approche systémique qui
viserait à rendre les acteurs plus autonomes. En d’autres termes, concluent les auteurs : les résultats des recherches se trouvent
réinvestis dans la machine, tandis que ceux de SoLAR sont restitués aux acteurs, notamment sous la forme de visualisation, de
tableaux de bord, etc.

Les LA pourquoi faire ?


16 Quels sont alors les thèmes de recherche, les domaines d’application des LA ? En quelques années, le domaine s’est assez
fortement structuré autour d’objets de recherche et d’approches clairement identifiés comme le montrent les contributions
rassemblées dans le Handbook of Learning Analytics (Lang, Siemens, Wise et Gasevic, 2017), l’ouvrage Learning Analytic (Peña-
Ayala, 2017) ou encore dans le rapport de Labarthe et Luengo déjà cité (2016). Les deux premiers de ces textes visent – c’est la règle
du genre– une présentation aussi complète que possible du domaine ; le troisième s’appuie, quant à lui, sur un état de l’art et une
métarecherche sélective, basée sur des articles récents issus des organes de publication des deux communautés scientifiques
identifiées ci-dessus, EDM et SoLAR. Malgré leurs différences, celles-ci partagent en effets de nombreux objectifs comme un grand
nombre de méthodes.
17 Il existe d’autres classifications encore, issues de méta-analyses, par exemple celle de Tak Ming Wong (2017) qui propose de
regrouper les recherches selon six thématiques principales : « qualitative evaluation ; quantitative measures of use and
attendance ; differentiation between groups of students ; differentiation between learning offerings ; data consolidation ; and
effectiveness ». Cependant, l’objectif de ce texte de cadrage n’est pas d’offrir aux lecteurs un tableau détaillé et exhaustif des
domaines d’application et des recherches de ces courants. Il ne s’agit pas non plus de mener une analyse comparée des différentes
catégorisations proposées. Le lecteur intéressé se référera aux ouvrages cités.
18 Notons cependant que ces différentes classifications utilisent des critères qui, terme à terme, ne se correspondent pas
entièrement. Par exemple, les recherches regroupées sous le label Learning Analytics Dashboards (Lang et al., 2017) pourraient
trouver une place au sein des recherches se basant sur les données d’apprentissage et qui ont pour objet l’analyse des parcours – la
première catégorie de recherches identifiée par Labarthe et Luengo (2016). En effet, l’une des applications de ces recherches
consiste en la réalisation de tableaux de bord, renvoyant aux apprenants une visualisation de leur parcours d’apprentissage
permettant de leur donner des informations pour qu’ils puissent développer leur métaréflexion et autoréguler leurs apprentissages.
On pourrait faire le même raisonnement avec les recherches regroupées sous le nom de Personalization of Student Learning
Support in Higher Education (Peña-Ayala, 2017) qui renvoient à la notion d’apprentissage adaptatif et aux travaux qui s’appuient
sur des données similaires.
19 Prenons un autre exemple. Les recherches rassemblées par Labarthe et Luengo sous l’étiquette « Analyser le discours » (2016,
p. 18) correspondent assez bien à celles identifiées par Lang et al. (2017) comme relevant des Natural Language Processing And
Learning Analytics (p. 93-104) ou des Discourse Analytics (p. 105-114). Bonnin et Boyer (2015), quant à eux, proposent quelques
exemples particuliers afin d’illustrer les apports des LA au processus d’apprentissage et aux dispositifs de formation (notamment,
pour la personnalisation des ressources pédagogiques, l’identification des apprenants à risque, la prédiction des abandons dans les
MOOC, les effets des tableaux de bord sur les résultats des apprenants, etc.). Mais tous ces exemples rentrent bien évidemment dans
les catégories précédentes qui sont nées d’états de l’art exhaustifs ou de méta-analyses basées sur une sélection significative
d’articles de recherche.
20 Par contre, les questions et les résultats des recherches catégorisées comme Multimodal Learning Analytics (Lang et al., 2017,
p. 129-141) ou Emotional Learning Analytics (Lang et al., 2017, p. 115-127), s’ils relèvent bien de catégories particulières, peuvent
contribuer aux recherches des autres catégories. Par exemple, la nature des données à traiter est, dans de très nombreux cas,
multimodale et ce quelle que soit la problématique ou la perspective de recherche adoptée.
21 Il serait aussi possible de classer l’ensemble de ces recherches selon la visée, selon les objectifs qu’elles poursuivent. Certaines se
veulent descriptives et cherchent à décrire des modèles ou des profils d’apprenants, les modèles d’interactions entre les apprenants,
leurs tuteurs et enseignants. D’autres déploient une approche compréhensive et visent à améliorer les modèles théoriques du
processus d’apprentissage, à mieux comprendre les effets de quels feedbacks sur quels apprentissages, etc. Certaines se centrent sur
le diagnostic et la prédiction, afin d’identifier les apprenants à risque et de renforcer la persistance des apprenants dans le système
de formation (dans les MOOC notamment). D’autres se définissent comme remédiatives ; elles cherchent adapter, éventuellement
automatiquement, les parcours d’apprentissage, renvoyer aux apprenants, grâce aux tableaux de bord, une représentation de leurs
parcours, de leur force et de leurs faiblesses, leur donner des informations leur permettant de développer leur métaréflexion et
d’autoréguler leurs apprentissages. D’autres encore répondent au besoin de prescription, visant à définir des normes et des
standards.
22 Les résultats de ces recherches s’adressent également aux enseignants et aux tuteurs dont l’activité de suivi des apprenants se
trouve ainsi mieux documentée et par là même grandement facilitée. Nous connaissons tous les outils de tracking, des modules de
statistiques embarqués dans les LMS que nous utilisons peu ou prou. Enfin, les institutions de formations sont elles aussi
intéressées par des modèles leur permettant de prévenir l’abandon et les échecs des apprenants d’une part et, d’autre part,
l’amélioration de performances des apprenants. À ces demandes, répondent aujourd’hui les nombreuses applications commerciales
que l’on peut intégrer dans les plateformes.

Regards critiques sur les LA

Épistémologie et méthodologie
23 L’analyse des activités d’apprentissage instrumentées ne fait pas l’unanimité parmi les chercheurs parce que, Labarthe et Luengo
l’ont rappelé (voir ci-dessus), cette approche exploratoire qui propose une modélisation a posteriori ne correspond pas aux
approches classiques des sciences humaines et sociales (SHS) qui cherchent à valider des hypothèses fondées sur un modèle
théorique a priori. Ce débat touche donc toutes les sciences humaines et doit être envisagé dans le contexte global de l’analyse des
données massives, de la Machine Learning et de l’importance croissante des algorithmes.
24 Les Big Data constituent « une véritable mutation de notre potentiel d’analyse » dans la mesure où elles permettent de faire
émerger de nouvelles données, de nouvelles hypothèses, de « nouvelles façons de penser des problèmes jusque là inaccessibles à
notre entendement ». (Azemar, Ben Henda et Hudrisier, 2015, p. 3). Pour ces auteurs, il s’agit d’un changement technoculturel
majeur, d’un « retournement copernicien de l’intelligence d’analyse» (p. 8) : ils rappellent en effet que l’imprimerie, grâce à ses
progrès techniques (standardisation de la mise en page comme de l’écriture grecque) a rendu possible l’élaboration d’une
connaissance et d’une intelligence collectives sans lesquelles jamais Copernic n’aurait pu faire ses propres découvertes et construire
le modèle astronomique héliocentrique.
25 Avec l’analyse des données massives, les modèles sont issus de l’exploration des données et non de théories préalablement
construites par les disciplines des SHS. Les techniques statistiques utilisées, qui trouvent leur origine dans les méthodes d’analyse
factorielle et de classification hiérarchisée de Benzécri10 (1973) comme dans leurs développements ultérieurs, permettent en effet
« la découverte de modèles à l’aide d’un processus algorithmique d’exploration de modèles » (Saporta, s.d.). Il ne s’agit donc plus
d’estimer ou de tester la validité de modèles construits a priori, mais de mettre en œuvre une « heuristique de la pertinence des
relations liant des ensembles d’items automatiquement proposée par l’outil d’analyse » (Azemar et al., 2015, p. 8).
26 Ces auteurs, qui situent la problématique des données massives dans le contexte général des humanités numériques, affirment,
suivant en cela Homi Bhabha, que « les sciences humaines sont les sciences princeps de l’interprétation » (p. 2). L’interprétation
serait certes la base de la démarche scientifique, mais en même temps, elle générerait aussi, « à travers l’exercice du jugement
d’importants travaux (d’art, de littérature, de musique, de sculpture, d’architecture, etc.) […] de la valeur ajoutée conceptuelle,
sociale et culturelle. » (p. 2). Or, le risque principal que l’analyse des données massives ferait courir à nos fondements
épistémologiques serait de substituer à l’apport épistémique de l’humain, à son esprit critique d’analyse, la puissance de calcul
d’algorithmes automatiques. S’il est vrai que la puissance de calcul et de traitement des données de l’ordinateur est supérieure celle
de l’humain, elle n’en bouscule pas moins nos habitudes épistémiques : il faudra apprendre à composer, à apprivoiser, avec cette
nouvelle force interprétative de l’algorithme.
27 Azemar et al., citant Björn-Olav Dozo (2008), rappellent cependant, dans leur article l’usage que fit de l’analyse factorielle de
correspondances pour la description de l’espace social, dans « La distinction » (1979). Modèles a priori et a posteriori peuvent être
complémentaires et contribuer à une analyse globale qui ne fait fi ni de la science ni de la « force interprétative des sciences
humaines de l’humain » (Azemar, 2015, p. 2).
28 Dans leur présentation du numéro de la Revue française de sociologie, « Big data, sociétés et sciences sociales », Bastin et Tubaro
(2018, p. 375, citant Anderson, 2008) estiment que des raisons épistémologiques que l’on peut considérer comme semblables à
celles évoquées ici fondent l’opposition à l’utilisation des ces données et à ses méthodes. Les tenants de ce courant redoutent
« l’obsolescence et la méthode scientifique d’analyse des données, appelées à être remplacées par des méthodes algorithmiques sans
lien fort avec les théories sociales » (ibid.).
29 Signe de cette évolution, les gisements de données remplaceraient progressivement les données d’enquêtes, questionnaires et
entretiens qui ont constitué longtemps sa « juridiction » sur tout un pan de la connaissance de la société (Bastin et Tubaro, 2018,
p. 376). Il en va sans doute de même pour les psychologues et les pédagogues. Ces derniers, qui ont beaucoup œuvré à systématiser
leurs approches empiriques notamment en développant des approches mixtes et en construisant des dispositifs de recherche semi-
expérimentaux afin d’accéder à plus de crédit, à plus de « scientificité », se verraient-ils ainsi privés de leurs acquis récents par un
« déluge de données » (Anderson, 2018) et des méthodes quantitatives par trop formelles ?
30 Une deuxième interrogation surgit alors dans ce débat, celle de la nature même des données, leur caractère formel, leur validité,
autrement dit leur capacité à mesurer « exactement se qu’elles sont censées mesurer » (Jones, 2000, p. 29). Le danger ne serait-il
pas de voir un champ de recherche dans lequel les hypothèses seraient tributaires de la nature des données disponibles » (Plantin et
Monnoyer-Smith, 2013, p. 61, cités par Ouakrat et Mesangeau, 2016, paragr. 7) ? Les données disponibles dans les plateformes de
distribution de Mooc ou d’un LMS sont en effet celles que l’environnement rend disponibles et le chercheur n’a sans doute aucune
marge de négociation pour en obtenir d’autres, plus adaptées aux recherches particulières. Bastin et Tuparo (2018) soulignent enfin
un autre écueil : les données pourraient être biaisées par les API (Application Programming Interfaces) embarquées dans les
plateformes et, sur lesquelles bien évidemment le chercheur n’a aucun contrôle possible.
31 Les traces brutes telles qu’elles sont captées par les environnements, les « inscriptions » (Settouti, Prié, Marty et Mille,
2007) d’activités, constituent rarement des données immédiatement utiles pour les chercheurs. La nécessité d’une reconstruction
des traces brutes, voire de leur modélisation, à différents niveaux de recherche, est d’ailleurs bien identifiée dans la littérature
(notamment Settouti et al., 2007 ; Peraya, Batier, Paquelin, Rizza et Vieira, 2009 ; Rogers, 2015 ; Champain, Mille et Prié, 2013 ;
Ouakrat et Mesangeau, 2016 ; Pierrot, 2018).
32 De plus, si les données numériques peuvent contribuer à la compréhension et à la modélisation des activités et de comportements
de sujets humains dans les environnements numériques et les plateformes, ces données « demeurent une traduction très partielle et
limitée des pratiques. Elles décrivent des liens sociaux de façon restreinte et circonstanciée et ne représentent qu’un pan de l’activité
des individus. De plus, elles ont tendance à effacer le contexte social et biographique dans lequel s’inscrivent les individus pour se
concentrer sur une forme particulière de l’activité, celle qui peut être enregistrée. Les traces captées et rendues disponibles aux
chercheurs en sciences de l’information et de la communication (SIC) sont construites et redéfinies par les modalités de prélèvement
et de mise en forme de l’information ». Il faut donc « re-socialiser » les données numériques ainsi que les indicateurs construits à
base de traces par une approche qualitative plus classique et en exploitant « la réflexivité que peuvent produire les visualisations de
ces données pour l’enquêteur comme pour l’enquêté » (Ouakrat et Mesangeau, 2016, § 2).
33 Ce qui est vrai pour les chercheurs en sciences de l’information et de la communication l’est tout autant pour ceux des sciences de
l’éducation, en technologies éducatives et en ingénierie. Dans cette perspective, la mise en œuvre, de plus en plus courante d’une
méthodologie mixte11, qui triangule les méthodes quantitatives et qualitatives – on songe, par exemple, aux entretiens d’explicitation
(Vermersch, 1994) – doit être considérée comme la piste la plus prometteuse.

Les effets positifs des LA sur l’apprentissage et sur la


gestion des institutions de formation
34 Les nombreux articles scientifiques, publications de vulgarisation et contributions à des conférences consultés12 lors de
l’élaboration de ce texte de cadrage font état dans leur revue de la littérature des multiples avantages de l’analyse des activités
d’apprentissage instrumentées pour l’apprenant, les enseignants et les institutions. Dans cette perspective, la méta-analyse de Tak
Ming Wong (2017) recense, à partir de 43 articles, les nombreux bénéfices qu’apportent l’analytique des activités d’apprentissage
instrumentées ainsi que les problèmes que rencontrent les instituions de formation ouverte et à distance auxquels les LA sont
supposés apporter des solutions efficaces. L’auteur montre que les LA ont pu identifier de façon précoce les apprenants à risque,
ceux qui risquent de décrocher. Les équipes pédagogiques ont pu ainsi proposer plus rapidement des mesures de remédiation et de
soutien personnalisées (« providing personalized assistance for students » et « timely feedback and intervention ». Dans ces cas, le
taux d’abandon a baissé tandis que les résultats académiques des apprenants (notes, scores, etc.) ont augmenté significativement.
En ce qui concerne directement la gestion des institutions, l’analyse des données massives a permis aussi de documenter et de mieux
informer les responsables dans la prise de leurs décisions (voir ci-dessus, Academic Analytics). L’analyse des
activités d’apprentissage instrumentées particulièrement du comportement des apprenants et de leurs parcours a aussi permis
d’accroître le rapport entre le coût et l’efficacité de la formation, notamment par la génération automatique de messages de soutien.
Enfin, grâce aux LA, les institutions comme le personnel académique ont pu évaluer l’efficacité des pédagogies mises en œuvre d’une
part et, d’autre part, des environnements afin de les améliorer.
35 Dans sa conclusion, l’auteur réaffirme que les résultats des recherches étudiées montrent que l’utilisation des LA peut produire
des effets favorables tant pour les apprenants que pour les institutions de formations ouvertes et à distance. Néanmoins, il nuance
son jugement avançant plusieurs arguments dont j’en retiendrai un ici. À propos des tableaux de bord par exemple, on aurait tort de
croire que les visualisations du comportement de l’apprenant qui lui sont présentées suffisent à changer son comportement. Citant
les travaux de Gasevic, Dawson et Pardo (2016), Tak Ming Wong défend l’idée selon laquelle un apprentissage de la lecture de ces
représentations complexes est absolument nécessaire à leur compréhension et à leur appropriation. En conséquence, les effets de
l’analytique des activités d’apprentissage instrumentées renforceraient dans ce cas le poids du facteur humain et sans doute le rôle
du tutorat dans le processus d’apprentissage. Tak Mig Wong explique aussi que l’évaluation des effets de la mise en œuvre d’une
approche basée sur l’analyse « data-driven » est difficile, même si l’analyse compare groupe expérimental et groupe témoin, car les
causes des effets observés sont vraisemblablement multiples : il est donc fort difficile d’identifier le rôle et la part réelle des LA dans
les effets constatés. Ce type de critique n’est pas neuf. La première rappelle que les représentations graphiques ne sont pas
immédiatement lisibles et compréhensibles par tout un chacun, ce qu’ont confirmé plus de soixante ans de recherches en sémiotique
visuelle et en littéracie médiatique et audiovisuelle. Quant aux tentatives d’évaluation de l’impact de dispositifs technopédagogiques
dans un dispositif de formation, elles ont prêté le flanc à de semblables critiques dès lors que l’on considérait le dispositif de
formation dans son ensemble, comme un tout indistinct (notamment, Peraya, 2010).

Les points de vue de l’éthique et la déontologie


36 Du point de vue éthique, les critiques les plus courantes dont fait l’objet l’analytique des activités d’apprentissage instrumentées
relèvent de celles, plus générales, portées à l’encontre de l’analyse des données massives. La première concerne une forme
d’algorithmisation de la société au risque d’une quantification aveugle de l’humain : « l’apparition d’une nouvelle forme de société
« dirigée par les données » (Pentland, 2012), bouleversant nos façons de vivre, de travailler et de dépenser (Mayer-Schönberger et
Cukier, 2013), soulevant des questions éthiques inédites (Boyd et Crawford 2012) et annonçant l’avènement d’une nouvelle
« gouvernementalité du social (Rouvroy et Berns, 2013) » (Bastin et Tubaro, 2018, p. 375). Le second type de résistances relève des
craintes des usagers comme de celles des chercheurs relativement à l’usage qui est fait des données : à quoi et à qui servent-elles ?
Comment en est garanti l’anonymat ? Comment sont-elles protégées de toute utilisation commerciale ? La typification des
apprenants, comme par exemple l’identification de profils d’étudiants à risque pourrait être utilisée, plutôt que pour favoriser
l’apprentissage adaptatif, pour contribuer au renforcement et à la reproduction des discriminations. Si les données de la plateforme
FUN (France université numérique), par exemple, sont protégées contre toute commercialisation, d’autres acteurs moins scrupuleux
pourraient être tentés de revendre les données recueillies aux fins de marketing (Chatellier, 2017).
37 À ce propos, Bastin et Tubaro (2018) soulignent une dissymétrie, tant dans la distribution des données que dans la production de
celles-ci qui « est le résultat d’un système complexe de rapports socio-économiques fortement asymétriques » (p. 379). L’éducation
constitue d’ailleurs un marché potentiellement très important13 et porteur où s’affrontent les logiques des acteurs des secteurs non
marchand et marchand, sachant que le domaine académique échappe de moins en moins aux logiques de ce dernier notamment à
cause des dépôts de brevets industriels issus de la recherche universitaire.
38 Au cœur de ces débats, la question de la protection des données personnelles est toujours présente. En effet, les données récoltées
renseignent sur toutes les activités privées des individus – quel que soit le niveau d’enseignement dans lequel ils s’insèrent, qu’ils
soient mineurs ou majeurs – dans et hors du lieu de formation, à travers les objets connectés (téléphones, montres, systèmes de
géolocalisation), réseaux sociaux, les ENT ou les LMS, des plateformes de ressources éducatives ou encore toute activité sur le Web.
39 De nombreux pays ont adopté des législations afin de protéger les données personnelles : aux États unis en 1974 le FERPA
(Family Educational Rights and Privacy Act ), en France la Loi informatique et libertés en 1978, au Royaume-Uni le data
Protection Act en 1998 (Labarthe et Luengo, 2016). En Belgique, la loi relative à la protection de la vie privée (1992) a été modifiée
plusieurs fois, d’abord en 1998 pour se mettre en conformité avec les directives européennes de 1995, puis en 2001. En France, en
2017, la Commission Nationale de l’Informatique et des Libertés (CNIL) plaidait, dans sa Charte de confiance relative à
l’encadrement des services numériques dans l’école, pour un « encadrement juridique contraignant » en ce qui concerne la non-
utilisation des données scolaires à des fins commerciales, à leur récolte, leur traitement et leur stockage. Elle recommande le respect
de normes et règlements en la matière (Chatellier, 2017, p. 2).
40 Mais en même temps, Labarthe Luengo (2016) et dénoncent les pressions des lobbies qui souhaitent, dans « une perspective néo-
libérale d’autonomisation […] une émancipation des consommateurs », autrement dit, chacun déciderait seul de l’usage qu’il
autorise ou non de ses propres données personnelles en lieu et place du législateur ou de la CNIL. La Loi française sur la République
numérique du 7 novembre 2016 affirmait clairement le principe de « la maîtrise par l’individu de ses données » (CNIL, 2016). On
peut se demander ce qu’apportera concrètement le Règlement général sur la protection des données (RGPD) qui a été adopté par
tous les pays européens en mai 2018.
41 De leur côté, Labarthe et Luengo (2016) signalent plusieurs initiatives comme le projet français HUBBLE qui a pour objectif
« d’établir des contextes d’observation, des indicateurs, des processus d’analyses ouverts et discutables » (p. 22). En Europe, la CNIL
et ses homologues européennes regroupées dans le G29 (Article 29 Working Party14) œuvrent dans la même direction et ont
proposé des recommandations que chaque institution porteuse d’un projet LA devrait s’engager à respecter. Ces recommandations
s’organisent autour de quatre axes : le niveau de responsabilité dans l’accès et le traitement des données ; une accessibilité
différenciée aux données selon le statut et le rôle de chaque acteur du système éducatif ; une étanchéité tant horizontale que
verticale du système informatique ; l’impossibilité de détourner l’usage des données recueillies sans le consentement de leurs
propriétaires (Labarthe et Luengo, 2016, p. 26-27).
42 Dans ce contexte, la protection des données des mineurs est devenue un enjeu de politique nationale tandis que la littéracie
numérique, la compréhension et l’évaluation des risques de perdre la maîtrise de ses données personnelles devraient être une
priorité surtout pour les mineurs (Labarthe et Luengo, 2016).
43 Les exigences de l’éthique et de la déontologie impliquent de nouvelles modalités de conception des applications embarquées
destinées à récolter à traiter et à diffuser ces données. Dans cette perspective, Mille et Pérès-Labourdette Lembé (2016) proposent
de concevoir des dispositifs qui intègrent « une dimension éthique par construction » (p. 2). Il s’agirait d’instrumenter la démarche
éthique elle-même ; il faudrait « que ce soient les instruments de collecte, de traitement et de diffusion des données personnelles
d’apprentissage qui doivent être à leur tour instrumentés pour qu’il soit possible des les suivre, les comprendre, les adapter et d’une
certaine façon les concevoir en coopération entre apprenants, parents, formateurs, responsables de formations, chercheurs… »
(ibid.). Dans le domaine de la recherche, « la notion d’accès ouvert » doit s’imposer tandis que « la capacité à accéder de manière
intelligible aux données et à leur exploitation doit être donnée » (Orphée, sous 4.1.2). Cette nécessité de transparence revient comme
un leitmotiv dans la littérature (notamment Labarthe et Luengo, 2016 ; récemment Romero, 2019).
44 Si les protocoles de recherche sont relativement bien encadrés par les commissions d’éthique facultaires ou universitaires, le
respect de ces exigences peut placer le chercheur dans une situation paradoxale. Le droit qu’ont les apprenants à disposer de leurs
propres données peut entrer en contradiction avec la nécessité de recueillir des données. L’observation des usages du smartphone
par exemple, est extrêmement difficile à réaliser parce que le téléphone appartient fondamentalement à la sphère individuelle et
privée, même s’il sert effectivement aussi à des fins scolaires, académiques ou professionnelles. Dans sa thèse récente consacrée aux
pratiques numériques juvéniles, Pierrot (2018) a souhaité installer un logiciel de traçage sur le téléphone des élèves participant à la
recherche. Cette implémentation était bien évidemment soumise à leur acceptation préalable : en 2015, 47 élèves sur 161 se sont
portés volontaires et, en 2016, 65 élèves sur 184 ont accepté. Certes, dans cette recherche portant sur des classes de lycée, l’effectif
des élèves est loin d’atteindre celui des Mooc. Bien qu’il ne concerne pas directement les formations à distance, cet exemple illustre
bien le conflit d’intérêts que peut rencontrer tout chercheur quand il désire respecter les données personnelles des participants à ses
recherches alors que celles-ci portent, justement, sur leurs comportements à la limite de leur sphère privée, sinon confondue avec
celle-ci.
45 Enfin, pour clôturer cet aspect de la discussion, disons que la question principale porte sur l’usage des LA plus que sur leur
caractère intrinsèque. Autrement dit, ce qui est en débat est de savoir et de pouvoir contrôler qui en fait quoi. Les LA comme les
Academic Analytics, peuvent fort bien être utilisées, si elles ne le sont pas déjà, comme le support d’un processus de rationalisation
et d’industrialisation de la formation (Moeglin, 2016). Dans ce cas, elles ne favoriseraient ni les apprenants ni les enseignants.

Quel(s) futur(s) pour les LA ?


46 Le projet Learning Analytics Community Exchange (LACE) s’est donné pour tâche de mener une consultation sur l’évolution des
Learnings Analytics à l’horizon 2025 (Ferguson, Brasher, Low, Griffiths et Dracher, 2016). Cette enquête de prospective a été
menée en 2015 auprès de 103 experts internationaux sur la base de la méthode Delphi qui, selon Ferguson et al. (2016, sous 3),
présente les avantages suivants : « Delphi does not seek consensus, but rather to understand diverse views of the preferred
future ». Dans un premier temps, les membres du consortium LACE ont été amenés à définir des scénarios décrivant le futur des
LA. Parmi ceux-ci, huit scénarios, considérés comme pertinents par rapport aux acteurs concernés et aux thématiques de la
communauté (technologie, vie privée éthique et pédagogie) ont été sélectionnés pour la suite de l’étude. La deuxième phase a
consisté en un sondage en ligne d’experts et de volontaires des enseignements secondaire et supérieur ainsi que du monde du travail
ayant répondu à un appel lancé par LACE. La troisième étape a concerné les décideurs et s’est orientée vers l’évaluation de la
faisabilité et de la désirabilité ainsi qu’aux conditions indispensables à leur réalisation. L’étape finale a consisté en une analyse
stratégique des résultats.
47 Les huit scénarios retenus pour l’année 2025 étaient les suivants : 1) classrooms monitor the physical environment to support
learning and teaching ; 2) personal data tracking supports learning ; 3) analytics is rarely used in education : 4) individuals control
their own data ; 5) open systems for learning analytics are widely adopted : 6) learning analytics systems are essential tools of
educational management ; 7) analytics support self-directed autonomous learning ; 8) most teaching is delegated to computers
(Ferguson et al., 2016 sous 4). Sans entrer dans les détails de cette analyse, épinglons quelques résultats synthétisés par Labarthe et
Luengo (2016) : les décideurs devraient soutenir une recherche ouverte, ancrée sur des modèles pédagogiques humanistes ; il
faudrait dissocier l’analytique des activités d’apprentissage instrumentées de l’automatisation de l’apprentissage ; une régulation de
l’usage des données personnelles est nécessaire, mais cela suppose la possibilité des gouvernements d’imposer de telles mesures ; le
contrôle des données par les individus eux-mêmes est un scénario perçu à la fois comme très désirable et, pour la majorité,
largement faisable ; les préoccupations éthiques à propos des LA sont importantes au point que certains craignent que leur
application puisse être entravée par un rejet de toute collecte intrusive de données personnelles ; il semblerait exister de grandes
différences entre les perceptions des experts et des praticiens ; dans tous les cas, développer la recherche-action autour des LA est
une priorité comme le rapprochement entre les professionnels de l’éducation et les informaticiens (p. 28-29).

Quelques questions pour ouvrir le débat


48 De nombreuses questions ont été abordées dans cette (trop) brève présentation de la thématique de l’analytique des activités
d’apprentissage instrumentées et de ses enjeux en particulier pour les acteurs de dispositifs et d’institutions de formation
entièrement ou partiellement à distance. Dans les trois prochains numéros de la revue, des collègues seront invité(e)s à développer
certains aspects évoqués ici, à croiser leur regard et à confronter leur point de vue adossé à des cadres disciplinaires différents
(psychopédagogie, informatique, statistique, sociologie). Dans une perspective la plus ouverte possible, il leur sera demandé de
répondre aux questions suivantes que j’emprunte aux différents auteurs cités parce qu’elles résument assez bien, sans aucune
prétention à l’exhaustivité, mon propos et l’objectif de cette rubrique.
49 Tout d’abord, « quelles méthodes de collecte massive de données personnelles respectent une démarche éthique, alors qu’il
n’existe que peu de moyens d’en contrôler l’usage ? Comment les acteurs de l’apprentissage peuvent-ils s’approprier, comprendre,
contrôler, adapter les algorithmes de calcul pour en juger la valeur ? L’usage des indicateurs peut exclure, discriminer, juger, etc.
Comment anticiper ces usages ? Est-ce que l’on peut étudier, concevoir puis calculer un indicateur sur n’importe quoi sous prétexte
que c’est possible ? D’une manière générale, comment faire en sorte qu’une démarche éthique soit garante d’une formation et d’une
recherche de qualité ? » (Mille et Pérès-Labourdette Lembé, 2016, p. 1). Dans cette optique et faisant écho à la question posée par G.
Bastin et P. Tubero (2018) à propos des sociologues, il leur est aussi suggéré de répondre à la question de savoir en quoi les LA ont
affecté la pratique de la recherche, leurs environnements numériques de travail ainsi que leurs métiers d’enseignant et celui de leurs
apprenants.
50 Enfin, dans quelle mesure l’analytique des activités d’apprentissage instrumentées ne concourent-elles pas aussi à l’accélération
de l’industrialisation et marchandisation de la formation ? Tous les « ingrédients » nécessaires – rationalisation, technologisation et
idéologisation (Mœglin, 2016) – paraissent en effet bien présents. Au-delà de la question du respect des données personnelles se
profile celle des rapports entre les secteurs marchand et non marchand, privé et public. Mais aussi entre les entreprises, les géants
de l’économie numériques, le marché, les académiques et les décideurs politiques. Ces derniers « prendront-ils la mesure des
financements et des projets encore nécessaires à l’adaptation de la recherche aux pratiques de terrain et à la dissémination d’une
culture de l’analytique des données au sein du corps enseignant ? Ensuite, ces décideurs parviendront-ils à élaborer un cadre
législatif viable, souple, mais équitable, respectant le droit des usagers à suspendre la collecte des données et préservant leur
confidentialité ? Enfin, ces décideurs parviendront-ils, au-delà d’une logique mercantile et de technologies propriétaires, à
promouvoir des standards, des projets ouverts ? » (Labarthe et Luengo, 2016, p. 31).

Bibliographie
Anderson, C. (2008). The End of Theory : The Data Deluge Makes the Scientific Method Obsolete. Récupéré le 13 décembre 2018 de :
https://www.wired.com/2008/06/pb-theory/
Atkinson, S. P. (2015). Adaptive Learning and Learning Analytics : a New Learning Missing Paradigm. BPP Working Paper, 1-9. Récupéré le 11
février 2019 de : https://i.unisa.edu.au/siteassets/staff/tiu/documents/adaptive-learning-and-learning-analytics---a-new-learning-design-
paradigm.pdf
Azemard, G., Ben Henda, M. et Hudrisier, H. (2015, octobre). Les Big Data : pistes de réflexion historiques, éthiques et épistémologiques pour
l’appropriation sociale ; retours et attentes d’expérimentations en Learning Analytics. Conférence ORBICOM : Données ouvertes, Media et
citoyenneté. Mexico : Universidad Iberoamericana. Récupéré le 12 décembre 2018 de : https://archivesic.ccsd.cnrs.fr/sic_01321534/document
Bastin, G. et Tubaro, P. (2018). Le moment BIG DATA des sciences sociales. Revue française de sociologie, 3(59), 375-394. Récupéré le 11 février
2019 de : https://www.cairn.info/revue-francaise-de-sociologie-2018-3-page-375.htm
Benzécri, J.-P. (1973). L’analyse des données. Paris : Dunod
Bonnin, G. et Boyer, A. (2015). Apport des Learnings Analytics. Administration & Éducation, 2(146), 125-130. Récupéré le 11 février 2019 de :
https://www.cairn.info/revue-administration-et-education-2015-2-page-125.htm
Campbell, J.-P. et Oblinger, D.G. (2007). Academic Analytics : A New Tool for a New Era. EDUCATE Review, 42(4), 40-57. Récupéré le 10 février
2019 de : https://er.educause.edu/articles/2007/7/academic-analytics-a-new-tool-for-a-new-era
Cerisier, J.-F. (2011). Acculturation numérique et médiation instrumentale. Le cas des adolescents français. Poitiers : Université de Poitiers.
Récupéré le 20 décembre 2018 de : https://tel.archives-ouvertes.fr/tel-00922778/document
Champion, P.A., Mille, A. et Prié, Y. (2013). Vers des traces numériques comme objets informatiques de premier niveau : une approche par les
traces modélisées. Intellectica, 1(59), 1-33. Récupéré le 13 février 2019 de : https://liris.cnrs.fr/Documents/Liris-5998.pdf
Chatelier, R. (2017). Learning Analytics : quelles sont les données du problème ? CNIL. Récupéré le 25 janvier 2019 de :
https://linc.cnil.fr/fr/learning-analytics-quelles-sont-les-donnees-du-probleme
Commission Nationale de l’Informatique et des Libertés (2016, 17 novembre). Ce que change la loi pour une République numérique pour la
protection des donnes personnelles. Récupéré le 11 février 2019 de : https://www.cnil.fr/fr/ce-que-change-la-loi-pour-une-republique-numerique-
pour-la-protection-des-donnees-personnelles
Decourt, O. (2018). Le data mining, qu’est-ce que c’est et comment l’appréhender ? Récupéré le 13 décembre 2018 de : https://od-
datamining.com/knwbase/le-datamining-quest-ce-que-cest-et-comment-lapprehender/
Dioudi, M. (dir.) (2018). Learning Analytics : terminologie du Learning Analytics. Direction du Numérique pour l’Éducation, ministère de
l’Enseignement supérieur de la Recherche et de l’Innovation (France). Récupéré le 13 décembre 2018 à : http://techne.labo.univ-
poitiers.fr/gtnum2/file/axe6/DNE-LA-GTnum2_Axe6-Livrable pour les DANs-Mars 2018.pdf
Ferguson, R., Brasher, A., Low, D., Griffiths, D. et Dracher, H. (2016). Learning Analytics : Visions of the Future. Récupéré le 15 janvier 2019 de :
https://oro.open.ac.uk/45312/1/LAK16 %20LACE %20panel %20final.pdf
G29 (2017). Guidelines on Data Protection Impact Assessment (DPIA) and determining whether processing is “likely to result in a high risk” for
the purposes of Regulation 2016/679. Récupéré le 15 janvier 2019 de : https://ec.europa.eu/newsroom/document.cfm ?doc_id =44137
Gasevic, D., Dawson, S. et Pardo, A. (2016). How do we start ? State and directions of learning analytics adoption. International Council for Open
and Distance Education. Récupéré le 21 février 2019 de :
https://icde.memberclicks.net/assets/RESOURCES/dragan_la_report %20cc %20licence.pdf
Gauthier, G., Frasson, C. et VanLehn, K. (dir.) (2000), Intelligent Tutoring Systems. Berlin : Springer.
Hargreaves, H.D. (1996). Teaching as a Research-Based Profession. Possibilities and Prospects. London : Teacher Training Agency. Récupéré le 7
février 2019 de : https://eppi.ioe.ac.uk/cms/Portals/0/PDF %20reviews %20and %20summaries/TTA %20Hargreaves %20lecture.pdf
Jones, R. A. (2000). Méthodes de recherches en sciences humaines. Bruxelles : De Boeck.
Labarthe, H. et Luengo, V. (2016). L’analytique des apprentissages numériques. Université de Paris 6, Laboratoire d’Informatique de Paris 6
(LIP6). Récupéré le 18 décembre 2018 de : https://hal.archives-ouvertes.fr/hal-01714229/document
Lang, C., Siemens, Wise, D. et Gasevic, D. (dir.) (2017). Handbook of Learning Analytics. Society for Learning Analytics Research. Récupéré le 13
décembre 2018 de : https://solaresearch.org/hla-17/
Mille, A. et Pérès-Labourdette Lembé, V. (2016). Learning Analytics : vers une toque par construction des EIAH. Récupéré le 18 décembre 2018
de : https://analysedestraces.files.wordpress.com/2016/06/mille_et_al-orphee-rdv.pdf
Mœglin, P. (dir.) (2016). Industrialiser l’éducation. Textes historiques commentés. Saint-Denis : Presses universitaires de Vincennes.
Orphée (2018). Rapport final du Projet de réseau ANR Orphée. Récupéré le 11 février 2019 de :
http://atief.fr/DOCS/Rapport_Final_Orphee_Juin_2018.pdf.
Ouakrat, A. et Mésangeau, J. (2016). Resocialiser les traces d’activités numériques : une proposition qualitative pour les SIC. Revue française des
Sciences de l’information et de la communication, 8. Récupéré le 14 février 2019 de : https://journals.openedition.org/rfsic/1795
Pardo, A., Poquet, A., Martinez-Maldonado, R. et Dawson, S. (2017). Provision of Data-Driven Student Feedback in LA & EDM. Dans C. Lang, G.
Siemens, D. Wise et D. Gasevic (dir.), Handbook of Learning Analytics (p. 163-174). Society for Learning Analytics Research. Récupéré de :
https://solaresearch.org/hla-17/
Peña-Ayala, A. (2017). Learning Analytics : Fundaments, Applications, and Trends. A view of the Current State of the Art to Enhance e-learning.
New York : Springer.
Peraya, D., Batier, C., Paquelin, D., Rizza, C. et Vieira, M. (2009). Les traces d’usage et l’usage des traces : le rôle des traces dans l’orientation
stratégique des unités de développement du cyber apprentissage et des dispositifs hybrides dans l’enseignement supérieur. Dans : F. Larose et A.
Jaillet (dir.). Le numérique dans l’enseignement et la formation. Analyses, traces et usages (p. 37-80). Paris : L’Harmattan.
Peraya, D. (2010). Médias et technologies dans l’apprentissage : apports et conflits. Dans : Charlier, B. et Henri, F. (dir.). Apprendre avec les
technologies (p. 23 49). Paris : Presses universitaires de France.
Peraya, D. et Bonfils, P. (2014). Détournements d’usages et nouvelles pratiques numériques : l’expérience des étudiants d’Ingémédia à l’Université
de Toulon. Revue des sciences et techniques de l’information et de la communication pour l’éducation et la formation, 21. Récupéré le 15
décembre 2018 de : http://sticef.univ-lemans.fr/num/vol2014/19-peraya-epa/sticef_2014_NS_peraya_19.htm
Pierrot, L. (2018). Circulation sociale des pratiques numériques juvéniles et genèse instrumentale (thèse de doctorat non publiée, Université de
Poitiers, Poitiers, France).
Poellhuber, B., Roy, N. et Moukhachen, M. (2017). Les stratégies d’apprentissage et de collaboration déployées par des utilisateurs-clés dans le
MOOC « Innovations technopédagogiques en enseignement supérieur (ITES), Raisons éducatives, 1(21), 209-228. Récupéré le 4 janvier 2019 de :
https://www.cairn.info/revue-raisons-educatives-2017-1-page-209.htm
Prieto, L.P., Sharma, K., Dillenbourg, P. et Jesús (2016). Teaching analytics : towards automatic extraction of orchestration graphs using wearable
sensors. Dans : Proceeding of LAK ’16 Proceedings of the Sixth International Conference on Learning Analytics & Knowledge (p. 148-157). ACM :
New York. Récupéré le 27 février 2019 de : http://delivery.acm.org/10.1145/2890000/2883927/p148-prieto.pdf?
ip=129.194.216.159&id=2883927&acc=ACTIVE%20SERVICE&key=FC66C24E42F07228%2E1F81E5291441A4B9%2E4D4702B0C3E38B35%2E4D4702B0C3E38B35&__acm__=1551712664_bf2436c5103f90f4
Rey, O. (205). Autour de l’Evidence-based Education, Eduveille. Récupéré le 16 décembre 2018 de : https://eduveille.hypotheses.org/ ?
s =evidence+based+ %C3 %A9ducation
Romero, M. (2019, janvier). Enjeux d’apprentissage, d’enseignement et d’organisation des formations hybrides et à distance. De l’engagement
cognitif à l’engagement citoyen (socio)créatif. Conférence inaugurale prononcée lors du colloque Éducation 4.1 ! CNED, DMS, Poitiers, France.
Rogers, T. (2015). Critical realism and learning analytics research : epistemological implications of an ontological foundation. Dans : LAK
’15 Proceedings of the Fifth International Conference on Learning Analytics and Knowledge (p. 223-230). Récupéré le 25 janvier 2019 de :
https://dl.acm.org/citation.cfm ?id =2723631
Saporta, G. (s.d.). Introduction au data Mining à l’apprentissage statistique. Récupéré le 12dcembre 2018 de : cedric.cnam.fr/~saporta/DM.pdf
Seclier, B. (2017a). Learning Analytics, une tendance émergente dans l’éducation. Récupéré le 18 décembre 2018 de : http://www.sup-
numerique.gouv.fr/cid113065/learning-analytics-une-tendance-emergente-dans-l-education.html
Seclier, B. (2017b, 3 juillet). Learning Analytics : le Big data au service de l’apprentissage [vidéo]. Récupéré le 18 décembre 2018 de :
https://webtv.univ-lyon3.fr/channels/moodlemoot/media/MEDIA170703113731818 ?server =1
Settouti, L., prié, Y., Marty, J. et Mille, A. (2007).Vers des Systèmes à Base de Traces modélisées pour les EIAH. Rapport de recherche RR-LIRIS-
2007. Récupéré de : http://liris.cnrs.fr/publis/?id=2882.
Tak Ming Wong, B. (2017). Learning Analytics in Higher Education : an Analysis of Case Studies. Asian Association of Open University’s Journal,
12(1), 21-40. Récupéré le 10 décembre 2018 de : https://www.emeraldinsight.com/doi/full/10.1108/AAOUJ-01-2017-0009
Venant, R. (2017). Les learning analytiques pour promouvoir l’engagement et la réflexion des apprenants en situation d’apprentissage pratique
(thèse de doctorat, Université Paul Sabatier, Toulouse, France). Récupéré le 15 janvier 2019 à : http://thesesups.ups-
tlse.fr/3697/1/2017TOU30164.pdf
Venant, R. (2018). Les Learning Analytics. De la conception à l’exploitation [vidéo]. Récupéré le 25 janvier 2019 de : https://umotion.univ-
lemans.fr/video/3612-seminaire-lium-remi-venant-les-learning-analytics-de-la-conception-a-lexploitation/ ?is_iframe =true&size =240
Vermersch, P. (1994). L’entretien d’explicitation en formation continue et initiale. Paris : ESF.

Notes
1 Pour être complet, il aurait fallu traiter aussi le développement des Teaching Analytics définis par Prieto, Sharma, Dillenbourg et Jesús (2016)
comme : « the application of learning analytics techniques to understand teaching and learning processes, and eventually enable supportive
interventions ». Cet aspect fera sans doute l’objet d’une prochaine contribution.
2 Peraya et Bonfils (2014) ont proposé de faire la distinction entre les dispositifs de formation et de communication médiatisées, des dispositifs
complexes et multifonctionnels comme les environnements virtuels d’apprentissage ou les LMS d’une part et d’autre part, les dispositifs
particuliers, spécialisés et monofonctionnels (un forum, un chat, etc.). Les EIAH, qui sont à l’origine des situations d’apprentissage instrumentée
(SAI), se rattachent plutôt à cette seconde catégorie.
3 Cette diversité des traces renvoie au deuxième « V » de la définition de Big Data, proposée par Laney en 2001, dite des « 3V » pour volume,
variété et vitesse. D’autres chercheurs ont progressivement rajouté d’autres lettres : un V pour véracité, un autre pour valeur ou un K pour
exhaustivité (cité par Bastin et Tubario, 2018, p. 378).
4 La traduction française officielle de cette expression est « méga-données » et celle alternative, qui semble s’être imposée, est « données
massives » (Bastin et Tubario, 2018, p. 377).
5 Portail du numérique dans l’enseignement supérieur, rubrique « Enseigner avec le numérique » (http://www.sup-numerique.gouv.fr/)
6 L’environnement personnel d’apprentissage (EPA) des apprenants n’est pas exclusivement constitué par des environnements numériques. Ils
possèdent encore un espace physique dans leur lieu d’habitation (d’une part, bureau, table de travail, canapé, lit et d’autre part des documents
imprimés, articles, livres, notes manuscrites, etc.) (Peraya et Bonfils, 2014).
7 Dans un premier temps, j’avais pensé à « Analytique de données relatives à l’apprentissage humain dans un environnement numérique de travail
et/ou d’apprentissage ». Mais cette définition du groupe de travail français de la DNE me paraît bien plus synthétique et la référence aux activités
instrumentées semble suffisamment explicite.
8 Nous empruntons largement l’information de cette introduction à ces auteurs.
9 « Business Intelligence (BI) comprises the strategies and technologies used by enterprises for the data analysis of business information. » (Dedić
et Stanier, 2016 cité dans Dioudi, 2018 p. 3).
10 De nombreux auteurs se réfèrent à la métaphore utilisée par cet auteur, celle de la « pépite » enfouie dans un amas de données et qu’il faut faire
émerger avec des outils statistiques adaptés.
11 Il paraît cependant important de distinguer la nature des données et celle de leur traitement. Les données textuelles peuvent en effet faire l’objet
d’analyses quantitatives (statistique lexicale) autant que qualitatives (approche compréhensive et herméneutique).
12 Les recherches basées sur les mots clés Learning Analytics, analytique de l’apprentissage, Data Mining, fouille des données, etc. renvoient à des
millions de documents qui constituent à leur tour un impressionnant gisement des données : 668.000.000 documents constituent la réponse à la
requête fondée sur le mot clé Learning Analytics et 427.000.000 pour Data Mining (Requête sur Google le 20 février 2019).
13 Par exemple, le marché des tableaux de bord se chiffrait selon des chiffres publiés en 2013 à 2 milliards de dollars (Roberge, cité par Labarthe et
Luengo, 2016, p. 21).
14 https://ec.europa.eu/newsroom/just/item-detail.cfm ?item_id =50083 voir aussi https://cnpd.public.lu/fr/publications/groupe-art29.html On
pourra aussi consulter leur Guidelines adoptées en 2017.

Pour citer cet article


Référence électronique
Daniel Peraya, « Les Learning Analytics en question », Distances et médiations des savoirs [En ligne], 25 | 2019, mis en ligne le 24 mars 2019,
consulté le 14 septembre 2019. URL : http://journals.openedition.org/dms/3485

Auteur
Daniel Peraya
TECFA, Université de Genève

Articles du même auteur


Les Learning Analytics : contraintes méthodologiques et « gouvernance » éthique des données [Texte intégral]
Paru dans Distances et médiations des savoirs, 26 | 2019
Éditorial [Texte intégral]
Paru dans Distances et médiations des savoirs, 25 | 2019

Éditorial [Texte intégral]


Paru dans Distances et médiations des savoirs, 24 | 2018

Technologies et formes éducatives : entre rupture et continuité, stabilité et évolution [Texte intégral]
Paru dans Distances et médiations des savoirs, 24 | 2018

Au sujet de Formateur en ligne : vers un modèle d’action [Texte intégral]


Le choix de Distances et médiations des savoirs (DMS)
Paru dans Distances et médiations des savoirs, 23 | 2018

Les acteurs et leurs représentations au cœur de la forme scolaire : poursuite du débat autour du rôle joué par les technologies dans
son évolution [Texte intégral]
Paru dans Distances et médiations des savoirs, 23 | 2018
Tous les textes...

Droits d’auteur

DMS-DMK est mis à disposition selon les termes de la licence Creative Commons Attribution - Partage dans les Mêmes Conditions 4.0
International.

Ce site utilise des cookies et collecte des informations personnelles vous concernant.
Pour plus de précisions, nous vous invitons à consulter notre politique de confidentialité (mise à jour le 25 juin 2018).
En poursuivant votre navigation, vous acceptez l'utilisation des cookies.Fermer

Вам также может понравиться