Vous êtes ici : Accueil > La revue > Numéro 4 - "Des expé... > L’expérimentation de...

L’expérimentation des innovations en éducation : réflexion épistémologique, pièges et précautions

frPublié en ligne le 02 décembre 2016

Par Erica de Vries

Résumé

Dans cet article, nous proposons une réflexion à caractère épistémologique sur la dialectique innovation-expérimentation. Tout d’abord, la proximité sémantique entre le duo expérimentation-innovation et le duo science-technologie est commentée. Nous examinons les glissements sémantiques entre les deux couples et plus particulièrement dans le champ des technologies éducatives. Cet examen permet d’identifier quelques problèmes rencontrés lorsqu’il est question de faire des expérimentations sur des innovations plus précisément pédagogiques ou didactiques. Nous présentons la méthodologie des Design Experiments relevant des Learning Sciences ayant pour objectif de remédier à quelques-uns de ces problèmes. Enfin, nous exposons une technique spécifique de quantification de données qualitatives pour montrer à quoi la réflexion épistémologique engage. La démarche pourrait être généralisée dans l’expérimentation d’innovations autres qu’éducatives.

Abstract

In this article, we propose an epistemological reflection on the dialectics of innovation and experimentation. First, we note a semantic proximity between the two pairs innovation-experimentation and science-technology. We examine semantic shifts between the two couples in the field of educational technology. This review allows identifying several problems when it comes to experimenting educational innovations. We briefly present the “Design Experiments” methodology developed in the “Learning Sciences” which aims at alleviating some of these problems. Finally, we present a specific technique for quantifying qualitative data in order to show what our epistemological reflection entails. The method could be generalized in order to experiment other than educational innovations.

1.Introduction

1Annonçons d’emblée la couleur. Les deux mots clés de ce numéro spécial – expérimentation et innovation – nous mettent en porte à faux au vue de notre formation en psychologie expérimentale, de notre spécialisation en méthodologie et statistiques appliqués aux sciences sociales, et de notre parcours professionnel dans le champ qu’on appelait jadis les « Nouvelles Technologies d’Information et de la Communication pour l’Enseignement » (NTICE). Pour le premier mot « expérimentation », quel rapport entre celui-ci et « méthodes expérimentales » (scientific method), ou encore « expérience » (experiment) ? L’emploi du mot expérimentation, s’il signifie bien une volonté de mise à l’épreuve d’une nouvelle technologie ou d’une innovation, n’implique pas nécessairement une prétention de relever de la méthode expérimentale. Pour le deuxième mot « innovation », quel rapport entre celui-ci et la technologie prise selon ces quatre modes de manifestation selon Mitcham (1994) ? Ces quatre modes connus et admis : 1) des objets fabriqués ou artefacts, 2) des savoirs et savoir-faire nécessaires à la construction de ses artefacts, 3) de l’activité humaine elle-même de conception, de fabrication, et d’utilisation d’artefacts, et enfin, 4) de la volition ou la volonté de contrôle et d’efficacité, se rapportent autant à l’innovation qu’à la technologie. Le choix du mot « innovation » signifie probablement une volonté de s’affranchir de la technologie au sens commun pour souligner la nouveauté et l’émergence. Nous ressentons donc le besoin de clarifier ces termes « expérimentation » et « innovation » et d’établir comment ils se situent par rapport aux termes « science » et « technologie » que nous avons davantage l’habitude de manipuler.

2Nous nous proposons précisément d’examiner ces glissements sémantiques observés dans le champ des technologies éducatives. Ces technologies ont été développées depuis plusieurs dizaines d’années dans le but de renouveler les méthodes d’enseignement et de favoriser les apprentissages dans tous les domaines. En effet, l’histoire de la technologie éducative montre que chaque nouvelle technologie de l’information et de la communication a été déployée pour l’enseignement et l’apprentissage. De façon analogue au technology push opposé au market pull, ces applications sont soit le fruit de la technologie, technology-driven, dans les cas où on souhaite étudier l’utilité pédagogique d’une technologie à l’origine non-éducative, soit le fruit de la théorie, theory-driven, lorsque les principes dérivés d’une théorie ou d’un modèle de l’apprentissage amènent à concevoir un nouvel environnement technologique. De volumineux manuels témoignent de l’étendu du champ de la recherche et de la conception des technologies éducatives (e.g. Spector, Merrill, Elen, & Bishop, 2014). En même temps, au grand regret de certains, on n’observe qu’une très lente évolution dans l’utilisation effective par les enseignants dans le système d’éducation (Baron & Bruillard, 2008).

3Dans ce champ de l’innovation pédagogique, science et technologie, recherche et développement, vont donc main dans la main. Nous commentons d’abord le duo expérimentation et innovation en ce qu’il évoque le très classique duo science et technologie. Nous l’illustrons à l’aide du champ des technologies éducatives. Ensuite, nous examinerons les problèmes rencontrés lorsqu’il est question de faire des « expérimentations » sur des « innovations » plus précisément pédagogiques ou didactiques. Quelles solutions ont pu être apportées ? Nous présenterons la réponse des Learning Sciences qui ont produit la méthodologie des Design Experiments. Dans cette méthodologie, les chercheurs prennent ces problèmes observés, les pièges, comme points de départ et décrivent les caractéristiques d’une recherche, les précautions à prendre, dans ces conditions. Ensuite, nous nous focaliserons sur la quantification des données qualitatives, un processus articulant théorie et empirie. Enfin, nous commentons brièvement le rôle des traces et des visualisations dans ce processus qui peuvent être comprises comme innovations dans l’expérimentation.

2. Bref retour sur science et technologie

4Avant de traiter des expérimentations des innovations pédagogiques, revenons d’abord à l’opposition ancienne entre science et technologie. Le schéma classique de la recherche en sciences physiques part de connaissances scientifiques existantes (voir Figure 1, schéma de gauche, selon Perrin, 2001). Ce schéma a été adopté également en sciences humaines et sociales, dans l’économie expérimentale et en psychologie expérimentale notamment. Les connaissances scientifiques dans ces disciplines sont à la base d’hypothèses qui seront testées lors d’expériences contrôlées. Ensuite, les résultats sont communiqués pour donner lieu à de nouvelles connaissances scientifiques. Ainsi, l’expérimentation est la phase du processus scientifique de construction de connaissances qui permet de confronter les modèles avec la réalité. Dans le schéma, on reconnaît bien quelques-uns des caractéristiques définitoires d’une recherche scientifique : elle s’appuie sur des connaissances scientifiques préalables et se dissocie du sens commun, elle donne lieu à une construction de connaissances par la raison, et passe par une phase de confrontation avec le réel (voir aussi Bachelard, 1938 ; Quivy & van Campenhoudt, 1988 ; Reuchlin, 1992).

5Les sciences de l'ingénieur fonctionnent sur un schéma alternatif (cf. Figure 1, schéma de droite, selon Perrin, 2001) dans lequel les objets existants (appelés artefacts), et non les connaissances scientifiques existantes, sont à la base de nouvelles idées, de besoins exprimés, ou d’objectifs à atteindre. Le progrès dans le domaine est ensuite réalisé par un processus de conception et de production de nouveaux artefacts. De toute évidence, les sciences de l'ingénieur s'appuient et génèrent aussi des connaissances ; ce sont des connaissances plutôt techniques utilisées à l’entrée du processus de conception et produites à la sortie de la production. La nature différente des deux activités humaines research (recherche) opposé à design (conception) a été reconnue relativement tardivement (Simon, 1981).

6Le schéma est réducteur, nous en convenons. Nous devons prendre ces deux processus comme archétypes, comme cheminements idéalisés. Ils ne décrivent nullement les mouvements tortueux de la science et de la technologie (Latour, 2001). La raison de l’évocation de ces schémas tient en ce qu’ils permettent de comprendre ce qui a été à l’origine de tensions dans le champ des technologies pour l’enseignement et l’apprentissage. Un élément du problème réside dans le fait que la recherche en technologie éducative est une recherche finalisée. Plus généralement, la recherche en éducation a été décrite comme une recherche appliquée avec ses spécificités (Hadji & Baillé, 1998). Par exemple, les sciences de l'éducation comme sciences de la conception ont été comparées à l'aéronautique (Collins, 1992). Tout comme l'objectif de l'aéronautique est d'élucider comment la conception de différents engins permet de lever, de pousser, et de manœuvrer avec aisance, celui d'une science en éducation serait de déterminer comment la conception de différents environnements d'apprentissage contribue à l'apprentissage, à la collaboration et à la motivation des apprenants. L’objectif d’une recherche dans un tel champ est d’élaborer des théories et des modèles, de les appliquer dans un contexte donné (notre ajout « application » dans le schéma), dans le but de développer des artefacts, i.e. des dispositifs d’enseignement ou de formation. Une fois un nouvel artefact créé, on souhaite, la plupart du temps, le tester pour évaluer s’il répond aux préceptes du départ (notre ajout « évaluation » dans le schéma). Or dans une telle évaluation, contrairement à une recherche ayant directement pour objet les théories et modèles, on évalue simultanément l’artefact, sa mise en œuvre, et les principes à l’origine de la construction. Si on poursuit l’analogie de Collins (1992), un échec de fuseau sera attribué aux caractéristiques du fuseau ; les lois de la gravité et de la mécanique ne seront pas remises en cause. Or, lors d’un échec d’un engin pour l’apprentissage, nous devrons procéder à des remises en cause multiples questionnant à la fois les théories et modèles, les principes dérivés, leur implémentation, la mise en œuvre de l’innovation, et la façon dont les performances ont été mesurées.

Image 10000201000001F4000001AD3E3800A5.png

Figure 1. Le schéma des processus de production adapté de Perrin (2001, p. 32). Voir le texte pour l’explication de nos ajouts « application » et « évaluation ».

2.1.Les schémas brouillés des travaux en technologies éducatives

7La conception d’un artefact nécessite l’intervention de plusieurs disciplines et la conception d’un dispositif innovant pour l’enseignement ou l’apprentissage n’est pas une exception. Trois des disciplines s’y intéressant – sciences de l’éducation, psychologie et informatique – bien que relevant de logiques différentes, produisent des travaux tantôt orientés vers la conception, tantôt orientés vers l’étude de ces nouveaux dispositifs. Une des raisons pour évoquer les deux schémas de fonctionnement est que leurs spécificités occasionnent quelques problèmes dans le champ par l'engagement de chercheurs de disciplines relevant plus ou moins de l'un ou l'autre schéma. Dans cette entreprise s’entremêlent donc des logiques de conception – il s’agit d’agencer de nouvelles situations d’enseignement ou d’apprentissage impliquant un artefact technique –, de recherche – l’étude de ces situations permet d’accroître les connaissances scientifiques sur l’artefact, l’enseignement et l’apprentissage – et enfin de pratique – des comptes rendus d’expérience doivent informer sur leur mise en place effective. En termes de Pasteur’s quadrant (Stokes, 1997), les recherches sur les innovations pédagogiques visent à la fois une compréhension approfondie des phénomènes de l’apprentissage et l’utilité des dispositifs d’enseignement et de formation développés.

8En guise d’illustration, considérons un énoncé assez fréquemment rencontré lors de colloques nationaux, tels qu’Environnements Interactifs d’Apprentissage par Ordinateur (EIAO), Hypermédias et Apprentissages (HA), Environnement Informatique pour l’Apprentissage Humain (EIAH), dans les années 90 : « X, une nouvelle technologie pour l'apprentissage de Y ». On pourrait croire qu’un tel énoncé exprimerait de façon précise l’intention de l’auteur et soit comprise de la même façon par les participants du colloque. Une analyse plus subtile montre que l’énoncé peut relever tout aussi bien de deux, voire trois, genres divergents se distinguant plus particulièrement dans le rapport qu’entretien l’auteur avec le contenu de l’énoncé. En effet, l’auteur annonce (et les participants comprennent) par exemple que l'environnement X a effectivement pu être produit, ce qui validerait l'idée à l'origine de la conception (schéma de droite). Or, l’auteur peut tout aussi bien vouloir annoncer que l'apprentissage de Y a effectivement eu lieu, ce qui validerait l'hypothèse à l'origine de l’étude (schéma de gauche). On voit bien la rivalité entre les deux objectifs, celui de la vérité pour la science opposé à celui de l’utilité pour la technologie (Feenberg, 2009). L’opposition entre faits scientifiques et artefacts techniques (Latour, 2001) comme productions principales des processus de recherche et processus de conception respectivement saute aux yeux. Le troisième genre serait celui des connaissances interprétatives : l’auteur prétend à une compréhension approfondie de l’utilisation de X pour l’apprentissage d’Y en situation de classe par les enseignants. Il y a confusion lorsque la compréhension par les participants ne correspond pas à l’intention de l’auteur. Elle sera plus grande et de surcroît non résolue si ces rapports différents à l’objet d’étude, la technologie X, l’apprentissage de Y, ou leur utilisation in situ, ne sont pas explicités. Il s’agit là de démarches différentes qui ne s'appuient pas sur les mêmes types d’arguments et ne s'évaluent pas selon les mêmes critères. Schwartz & Martin (2003), en référence à Cook (1994), affirment qu’en définitive, pour étudier les apprentissages, nous avons besoin de coordonner les trois types de connaissances en sciences humaines et sociales : « predictive knowledge », posant la question des régularités, « praxis knowledge », visant le changement possible, et « interpretative knowledge », aspirant à la compréhension approfondie.

2.2.Pièges identifiés dans l’expérimentation des innovations pédagogiques

9Ainsi, il y a des tiraillements inévitables lors de l’expérimentation des innovations puisque dans cette activité on relève à la fois du schéma de la science et celui de la technologie. Or, l’opposition science et technologie n’est pas nouvelle, et on expérimente des innovations pédagogiques depuis bien longtemps. Les difficultés ont été prises à bras le corps par ce qui est devenu ensuite les Learning Sciences. Brown (1992), s’appuyant sur son propre parcours de chercheur d’abord en psychologie cognitive expérimentale et ensuite en sciences de l’éducation, propose des Design Experiments – des expériences de conception – comme une méthode de construction de connaissances scientifiques. Cette méthode consiste justement en l’expérimentation d’un artefact issu d’une démarche de conception. En l’occurrence, l’artefact consiste en une nouvelle situation d’enseignement en classe impliquant une nouvelle technologie ou une nouvelle méthode d’enseignement. Brown conceptualise une expérience de conception au centre d'une double tension (Figure 2). D'abord, le caractère synergique d'une situation d’enseignement en classe implique des difficultés dans le choix des entrées et sorties. En considérant la situation de classe comme un système complexe, une variation sur une variable risque fort de causer des perturbations dans d'autres variables. Ainsi, la situation étudiée concerne la plupart du temps de multiples changements simultanés dans le système. De la même façon, l'évaluation de la situation doit concerner les aspects visés dans la conception, en termes d'apprentissage, de résolution de problèmes, de raisonnements. Selon l’auteure, c'est la complexité de la situation de classe qui rend les méthodes classiques d'expérimentation en laboratoire non-adéquates. Néanmoins, la discussion sur la validité écologique et l’adéquation des études en laboratoire et/ou sur le terrain devra probablement être menée pour chaque expérimentation d’innovation pédagogique.

Image 10000201000001F4000000E9A3494C01.png

Figure 2 : La double tension dans une expérience de conception en éducation (Brown, 1992, notre traduction)

10Brown (1992) note le changement de rôle pour les élèves, enseignants, contenu, ordinateurs et l'évaluation dans une nouvelle philosophie de classe. Alors que dans la situation de classe traditionnelle, les enseignants emploient des méthodes didactiques avec des élèves considérés comme les destinataires plus ou moins passifs, la nouvelle situation concerne des enseignants comme accompagnateurs d'un processus de découverte chez les élèves alors maître de leur propre apprentissage. L'objectif même des apprentissages passe d'une vision fragmentée des contenus à une couverture en profondeur et en cohérence de thèmes récurrents. L'ordinateur comme outil de réflexion, de construction et de collaboration se substitue à la batterie d'exercices répétés que constituaient les premières machines à enseigner (Bruillard, 1997). L'évaluation d'un enseignement et/ou d'un apprentissage se trouve transformée puisqu'elle se doit d'être appropriée à ces nouveaux objectifs. Au lieu de se focaliser exclusivement sur la mémoire et la compréhension, l'évaluation comprend alors des mesures de la découverte et de l'utilisation de connaissances, ainsi qu’une étude des comportements et des interactions verbales entre élèves lors de projets et de réalisation de dossiers. Il en résulte qu’une expérimentation d’une innovation pédagogique doit le plus souvent procéder à l’opérationnalisation des concepts en jeu en variables mesurables. Ces nouveaux procédés s’exposent à la critique d’être relativement ad hoc en opposition au consensus dans la recherche sur la mémoire ou la compréhension sur la façon de mesurer les variables.

11Enfin, le silence est souvent fait, lorsqu’on expérimente un nouveau dispositif, sur les biais liés à la réflexivité de l’humain en tant qu’objet d’étude. Contrairement à la matière, l’humain se sachant observé peut adapter son comportement, répondre ou agir différemment, en fonction de son interprétation de la situation et/ou de son état d’esprit du moment. Ainsi, une question, volontairement polémique, se pose : est-ce que l’appellation « expérimentation » permettrait de s’affranchir des précautions de la méthode expérimentale pour éviter ces biais ? En expérimentant une innovation sur le terrain, est-ce qu’on serait à l’abri de tous ces biais maintes fois documentés, tels que l’effet Hawthorne, l’effet Pygmalion, l’effet Placebo, et l’effet expérimentateur ? Si l’étude randomisée en double aveugle, procédure bien connue en pharmacie, nous paraît difficilement applicable, faut-il alors se voiler la face ?

3. Quelques précautions émanant des sciences de l’apprendre

12Plusieurs auteurs argumentent que la méthodologie des design experiments est une voie alternative dans la construction de connaissances scientifiques lorsqu’il s’agit de vouloir à la fois développer des dispositifs innovatrices et de contribuer aux connaissances des phénomènes d’apprentissage. Une expérience de conception peut être caractérisée, dans des degrés variés selon les cas, comme étant :

13- Suscitée par la théorie et sa mise à l'épreuve,

14- Orientée vers la pratique ; l'utilité et la fonctionnalité des artefacts crées,

15- Focalisée sur les processus ; le raisonnement individuel ou collectif, le rôle joué par l'artefact,

16- Multiniveau impliquant élèves, enseignants, classes, écoles, communautés,

17- Itérative, des cycles de conception et d'évaluation sont alternés pour améliorer l'artefact,

18- Interventionniste, des situations réalistes sont conçues et/ou adaptées,

19- Collaborative, de multiples acteurs participent (chercheurs, développeurs, praticiens, …)

20Ce sont les signes distinctifs identifiés par Cobb, Confrey, diSessa, Lehrer & Schauble (2003), ainsi que Sloane et Gorard (2003). En outre, la méthodologie comprend généralement un rapport détaillé du processus de conception et des évènements lors de la mise en place de l’environnement. Cette documentation exhaustive comprend typiquement des enregistrements vidéo, des documents papiers, le traçage des évènements informatiques, des interviews et questionnaires. La documentation sert de base pour l'analyse de ce qui s'est passé lors de l'expérience de conception. Le produit est un compte rendu narratif et situé (comme un récit avec des acteurs, des actions et des intentions) d'un apprentissage et de la façon dont il a pu être engendré au moyen de l'environnement créé (Shavelston, Phillips, Town, & Feuer, 2003). Nous formulons quelques précautions à prendre.

3.1.Les questions posées

21En préambule d'une expérience de conception, il y a en premier lieu l'identification de l'enjeu théorique. Or, en réalité, on est enclin à poser des questions davantage pratiques, orientées exclusivement vers la performance d’un nouveau dispositif. Nous pointons ici sur les critères de pertinence pour des travaux de recherche en sciences sociales, décrits par exemple dans Quivy et van Campenhoudt (1988).

22Lorsqu’on souhaite expérimenter une innovation, lorsqu’on agence de nouveaux dispositifs pour l’enseignement et l’apprentissage et qu’on souhaite les tester, les questions évoquées vont souvent mention d’un monde potentiellement meilleur. Or, un de ces critères est de veiller à limiter le caractère moralisateur de la question de recherche. Ainsi, on considère qu’une question telle que « qu’est-ce qu’un bon enseignement assisté par ordinateur » ou encore « comment l’informatique pourrait contribuer à l’égalité de chances dans l’éducation » risque de ne pas donner lieu à une recherche de bonne qualité puisque trop sujet aux influences normatives. Par ailleurs, le chercheur se prive ainsi d’une partie considérable de l’espace des possibles. A force de chercher à améliorer les conditions de l’apprentissage, on risque de passer à côté de la découverte des vertus de situations a priori défavorables pour l’apprentissage.

23Le plus souvent, l’expérimentation doit donner lieu à la prise de décisions, par exemple suite aux études d’efficacité. Cette visée de la simple efficacité est diamétralement opposée au critère de l’intention compréhensive ou explicative d’une question à l’origine d’une recherche. Ainsi, une recherche sur une question telle que « est-ce qu’on apprend mieux avec cette innovation que sans ? », même si on réussit à en apporter une preuve adoptant une méthode expérimentale saine, la réponse ne renseignera probablement pas sur les causes d’un tel effet.

24Enfin, un dernier critère a trait au fait qu’une bonne question de recherche, en sciences humaines et sociales, oriente vers une étude du fonctionnement et non pas du changement. Ainsi, il paraît difficile d’imaginer une méthode pour répondre à une question telle que « comment l’innovation change les pratiques d’enseignement ? ». Comme pour les deux précédents critères, il paraît néanmoins légitime de se poser cette question, nonobstant les difficultés d’y répondre de manière univoque.

3.2.Contextes, objectifs et opérationnalisation

25La spécificité de l'ordinateur est qu'il est programmable pour produire un artefact ayant les caractéristiques spécifiques visées par ces concepteurs en termes de fonctionnalités offertes à l'apprenant et par là même les conditions supposées favorables à l’apprentissage. C’est sa qualité de méta-medium (Bruillard, 1997) qui confère à l’ordinateur de multiples rôles potentiels dans l’enseignement et l’apprentissage. En effet, le foisonnement d'études sur des situations pédagogiques impliquant des innovations plutôt informatiques va de pair avec une diversité de méthodes d’enseignement préconisées et de phénomènes d’apprentissage étudiés. Or, les relations entre méthode d’enseignement, rôle de l’informatique, et les apprentissages visés s’inscrivent habituellement dans une perspective théorique spécifique. Nous pouvons en distinguer au moins quatre : les perspectives behavioristes, cognitives, constructivistes et situationnistes (De Vries, 2001, 2003, et De Vries et Baillé, 2006). L’existence de différentes perspectives montre comment des acceptions variées de l’enseignement et de l’apprentissage cohabitent.

26Une situation d’apprentissage impliquant l’informatique est généralement abordée dans le cadre d'une de ces perspectives explicitant les liens présumés entre les activités à évoquer chez les élèves et les types d'apprentissages qu'elles permettent. En contexte authentique comme en laboratoire, un certain nombre de choix sont effectuées concernant le contenu (objet de la situation), la tâche (consigne donnée aux enseignants et aux élèves) et la technologie employée. En effet, c’est souvent la combinaison particulière de ces trois aspects qui est susceptible d'encourager certains types d’activités et d’apprentissages chez les élèves. Notre recherche sur CONNECT pour la confrontation, la négociation et la construction de textes (De Vries, Lund & Baker, 2002) fournit une instanciation du quintuple contenu, tâche, technologie, activité, apprentissage. Dans cette recherche, nous nous sommes appuyés sur l’état de l’art concernant le contenu choisi – le concept du son en physique – pour une tâche précise – l'explication et l'argumentation guidée – en développant un dispositif technologique – un collecticiel (apprentissage collaboratif assisté par ordinateur). Dans notre étude, nous nous sommes focalisés sur une activité particulière – les discussions épistémiques entre élèves – et son rôle dans un type d’apprentissage – la compréhension du modèle particulaire du son. Une telle instanciation sert à expliciter le contexte de l’étude, ses objectifs, et précède l’opérationnalisation.

27L’opérationnalisation réfère à la traduction des notions théoriques en opérations de mesure ou d’observation qui leur donneront un contenu empirique (Reuchlin, 1992). Ce procédé n’est pas une mince affaire puisque des procédés différents pour opérationnaliser la même notion peuvent donner des résultats différents. Par exemple, on pourrait opérationnaliser la satisfaction d’apprenants de différentes façons : 1) à partir du nombre de fois que « ils ont l’air satisfait » sur une vidéo, le nombre de fois qu’ils expriment spontanément leur satisfaction dans un enregistrement audio, en fonction de leurs réponses dans un entretien ou questionnaire, ou encore en posant la question à leur enseignant ou formateur. Une partie de l’argumentation du chercheur, en sciences humaines en sociales, comme en sciences de la vie et de la matière, concerne ainsi, d’une part, l’élaboration de l’instrument de mesure pour la notion étudiée, cf. des procédures d’étalonnage, et d’autre part, la fiabilité des données ainsi récoltées. Pour l’étude des activités complexes avec des innovations pédagogiques, la première difficulté est ainsi que les notions théoriques ne sont pas toujours clairement identifiées et celles qui le sont paraissent la plupart du temps difficilement opérationnalisables, e.g. comment s’y prendre pour étudier des activités de nature constructiviste dans un hypertexte ?

3.3.Un focus sur les processus

28Une troisième précaution concerne l’étude des processus en jeu plutôt que des produits. Or, une des difficultés réside dans le choix de la méthode à employer lorsqu’on s’intéresse à des activités complexes dans un contexte de terrain en opposition à des activités bien circonscrites dans des situations de laboratoire. En effet, la méthode apparait comme le point principal d’articulation entre la multiplicité des points de vue théoriques qui peuvent être adoptés d’une part, et les différents types de données qu’on est en mesure de récolter dans de tels contextes d’autre part. Nous avons choisi une méthode particulière, celle décrite par Chi (1997), pour traiter des données verbales en éducation et en sciences cognitives. Ces données sont souvent impropres, des – messy data – comme l’auteure le fait remarquer à propos de données à la fois verbales et gestuelles, sous la forme de dessins et autres gribouillis. Pour elle, si des méthodes existent pour traiter ces données, elles ont souvent une applicabilité restreinte, paraissent souffrir d’une manque d’objectivité, et/ou sont très coûteuses en temps. Chi donne alors une sorte de « guide pratique » pour traiter ces données qualitatives, principalement verbales, récoltées dans le cadre de recherches en éducation et en sciences cognitives (voir la Section 4). L’objectif de sa méthode est de pouvoir aboutir à des analyses quantitatives sur ces données de nature qualitatives. Cette méthode a plusieurs avantages dont celui de fournir un outil, la grille d’analyse, servant de cadre d’explicitation des notions théoriques, d’établissement de liens entre celle-ci et les données récoltées, et de fondement pour le choix de la forme de présentation des résultats. Nous nous focaliserons donc sur la grille d’analyse comme outil, et son utilisation dans des études sur les innovations pédagogiques à perspective théorique différente.

3.4.Interprétation et généralisation

29L'objectif des expériences de conception est bien la communication d'affirmations sur les conditions d'apparition d'un apprentissage. Par conséquent, les chercheurs doivent mettre leur cadre théorique en danger d'une part (Brown, 1992). Et d'autre part, ils doivent pouvoir répondre à la question essentielle sur la validité de leurs conclusions quant il s'agit d'affirmations théoriques suite à un succès observé dans la pratique de l'un ou l'autre dispositif (Shavelston, Phillips, Town, & Feuer, 2003). Pour pouvoir généraliser les conclusions, l'analyse narrative place l'étude en question dans un cadre théorique pour montrer en quoi elle est un cas paradigmatique du phénomène étudié. Pour ces auteurs, l'importance accordée au récit doit être vue comme une manifestation d'une mouvance plus large vers la narration en sciences humaines. Par ailleurs, c’est l’alternance de cycles de conception et d’évaluation qui contribuera à une plus grande compréhension des phénomènes en jeu lors de l’utilisation de technologies informatiques pour l’enseignement et l’apprentissage. Ces études ont ainsi davantage un caractère interprétatif (comprendre un phénomène particulier à l’aide de théories existants) et praxéologique (savoir comment agencer une situation pour l’action éducative) que prédictif (connaissances de relations cause et effets). Pour ce dernier type de connaissances, c’est la méthode expérimentale qui est indiquée (Schwartz & Martin, 2003).

30Des connaissances en sciences de l’éducation et en psychologie fournissent des suppositions à l'égard des caractéristiques que pourrait avoir un environnement d'apprentissage efficace (application dans la Figure 1), plutôt que des hypothèses proprement dites. Symétriquement, un environnement d'apprentissage ou un artefact informatique une fois réalisé n'a pas uniquement le mérite d'exister, mais constitue une occasion d’informer les théories de l'apprentissage par sa mise à l'épreuve (évaluation dans la Figure 1). On note que la construction de nouvelles connaissances par la conception ne paraît pas de même nature.

31Ensuite, en lien direct avec la conception de la situation dans son intégralité, les chercheurs procèdent par une clarification des objectifs de l'apprentissage en termes de contenu, la spécification de la tâche et/ou le consigne qui sera donné aux élèves, et l'identification du rôle que va jouer la technologie (voir aussi Cobb, Confrey, diSessa, Lehrer & Schauble, 2003). Ces derniers mentionnent en plus qu'il faut tenir compte des éléments de la situation de départ, tel que les dispositions intellectuelles et sociales des enseignants et des élèves. Les expériences de conception constituent ainsi une réponse possible à la complexité des situations de classe impliquant l’utilisation de l’informatique. Ce n’est néanmoins pas une voie facile, puisqu’une expérience de conception exige d’une part un ancrage fort dans la théorie et d’autre part un récit minutieux des événements. De nombreux écrits décrivant une expérimentation d’une innovation pédagogique manquent malheureusement de remplir l’une ou l’autre condition, voire les deux. Enfin, les conditions sous lesquelles on peut généraliser à partir de ces études restent en partie à définir. En effet, les expériences de conception, comme voie qui mènerait à des connaissances généralisables, sont toujours sujettes à discussion, voir par exemple le numéro spécial de The Journal of the Learning Sciences (Barab & Squire, 2004).

32Le fait que la recherche en technologies d'apprentissage soit une recherche appliquée pose d’autres problèmes. Dans le cas de résultats positifs, on peut conclure à des effets positifs sur tous les niveaux : les conjectures du départ concernant les théories de l’apprentissage, l’agencement de la situation pédagogique, le rôle de l’artefact informatique et les activités des enseignants et élèves. Dans le cas de résultats négatifs, le chercheur doit procéder à une remise en question systématique. Est-ce que les résultats invalident l’hypothèse sous-jacente sur l’apprentissage à l’origine de la conception du dispositif ? Est-ce qu'il faut remettre en cause l'implémentation de l’artefact informatique en lui-même ou encore son utilisation dans la situation pédagogique ? Est-ce que l'échec est lié à la méthode d'investigation ? Dans le cas d’une expérimentation par exemple, est-ce toutes les sources de variance ont été maîtrisées ?

4. Le processus de quantification du qualitatif

33Les données verbales sont au centre de nombreuses études en éducation. Par l'analyse de transcriptions de discours dans la classe et dans de petits groupes d'élèves, ainsi que des protocoles verbaux récoltés lors de tâches de raisonnement et de résolution de problèmes, les chercheurs tentent de décrire des patterns d'interaction, le développement ou le changement dans la pensée des acteurs, et des similarités et des différences entre des situations de nature différente à comparer dans le cadre d'une question de recherche plus précise. Faire une synthèse de toutes les techniques d'analyse de données verbales dépasserait le cadre de cet article. La technique présentée ici a été développée dans les années 80 et 90 plus précisément dans le cadre de recherches sur les innovations numériques pour l’enseignement et l’apprentissage, comme l’hypertexte, les simulations, les forums, les chats, etc. Elle est utilisée d'une part pour analyser des productions langagières individuelles ; des apprenants rédigent des textes, répondent à des questions, raisonnent ou résolvent des problèmes à haute voix, ou produisent des auto-explications en étudiant des corrigés de problèmes. D'autre part, elle convient aussi pour des productions langagières coopératives ; des apprenants rédigent des textes ensemble, raisonnent ou résolvent des problèmes en discutant entre eux, discutent d'un sujet soit en face à face, soit à distance. Pour ce qui est des interactions entre élèves, la situation en face à face nécessite le plus souvent des enregistrements audio et vidéo et donc des transcriptions, alors que dans la situation à distance, on emploie le plus souvent un moyen d'enregistrer les interactions (traçage par logiciel espion créant un fichier compte-rendu de l'interaction). Cette méthode de recueil de données se situe au niveau des comptes rendus et se rajoute aux autres méthodes qui sont les questionnaires, interviews, observations, tests etc., (Cohen, Manion, Morrison, 2000).

4.1.Confronter modèle et données

34La technique le plus souvent employée est celle qui consiste à confronter les données récoltées à un modèle a priori formalisé dans une grille d'analyse. Chi (1997) donne un résumé des huit étapes de cette technique pour quantifier des données verbales (préalablement récoltées et transcrites) :

35- Réduire ou échantillonner les données verbales

36- Segmenter les données choisies

37- Développer ou choisir une grille d'analyse

38- Opérationnaliser ce qui constitue une occurrence des catégories de la grille

39- Représenter les données analysées à l'aide de la grille (schémas, tableaux, …)

40- Rechercher des régularités dans les données analysées

41- Interpréter les patterns trouvés

42- Répéter le processus (facultatif)

43Des données verbales n’ont du sens qu'en relation avec le contexte de l'activité. Parmi les multiples facteurs contextuels à prendre en compte, Lemke (1998) mentionne les participants et leurs relations sociales et physiques, les objets matériels et les représentations sémiotiques dans l'environnement immédiat, la définition culturelle de l'activité ou de la situation, des rôles et des attentes des participants, et le médium de communication. Nous nous focalisons ici sur l’étape du développement ou du choix d’une grille d’analyse.

4.2.Des grilles d’analyse adaptées aux enjeux des innovations pédagogiques

44La grille d’analyse montre et explicite la perspective théorique adoptée, elle matérialise, en quelque sorte, la problématique. Nous pouvons globalement distinguer trois différents types de grille d'analyse respectivement centrés sur le contenu propositionnel, le processus de construction de connaissances, et les interactions entre apprenants.

4.2.1.Le contenu propositionnel

45Ce premier type d'analyse regarde le sens propositionnel, c’est-à-dire le contenu exprimé dans le matériel verbal. Dans la perspective cognitiviste, l’intérêt de l’analyse de données verbales et textuelles est de jauger le degré d’acquisition des concepts d’un domaine par l’apprenant. Par conséquent, la grille d’analyse sera spécifique pour un domaine en particulier, elle sera constituée de catégories reflétant les différents thèmes présents dans le contenu.

46Par exemple, dans les travaux De Vries et De Jong (1997, 1999), après avoir consulté un hypertexte contenant de l’information sur la conception d’aires de jeux pour enfants, les étudiants produisaient individuellement un texte, soit pour élaborer un plan, soit pour justifier une solution, pour la conception d’une aire de jeux. Ces textes étaient analysés pour déterminer leur taille (nombre d'éléments), leur variété thématique (nombre de thèmes abordés), et leur niveau d'abstraction. Voici un exemple d'une phrase produit par un étudiant : « Pour la sécurité / j'ai conçu une clôture, / et pour stimuler la motricité, / il faut que les enfants puissent grimper / alors j'ai conçu un objet haut ». Selon la grille d’analyse élaborée, cette phrase contient cinq éléments, séparés par les barres obliques, relatifs à deux thèmes identifiés au préalable dans le champ de la psychologie environnementale des aires de jeux pour enfants. Ils sont exprimé sur trois niveaux d'abstraction : les concepts correspondant aux thèmes (sécurité et motricité), les exigences de prestation correspondant aux fonctions visées (grimper) et les matérialisations ou solutions concrètes (clôture, objet haut). L’analyse a permis de montrer une différentiation dans le contenu des textes en fonction de la façon dont l’information est structurée dans l’hypertexte et de l’objectif de la consultation par les étudiants-élèves-concepteurs. Par ailleurs, l’élaboration de la grille d’analyse a conduit à distinguer ces différents niveaux d’abstraction pertinents pour les tâches de conception.

47Plus généralement, l’analyse du contenu permet de tenir compte du caractère ontologique des éléments générés. Les travaux sur les auto-explications en physique en sont un autre exemple. On distingue dans leur contenu, des concepts, des principes, des systèmes et des techniques principalement parce que différentes méthodes d'apprentissage produisent différents effets sur ces catégories (Chi, 1997). Enfin, une variante de la méthode consiste à identifier les conceptions des apprenants en amont d’un enseignement, en l’occurrence leurs modèles mentaux initiaux, à partir de données textuelles. Des modèles mentaux consistent en une collection de composantes et de caractéristiques d’un phénomène et des relations structurales entre ces composantes. Le plus souvent, un modèle mental est caractérisé comme plus ou moins correct, fonctionnel, ou ressemblant à celui d’un expert dans le domaine en question. Une modification dans la catégorisation des apprenants d’après leurs modèles mentaux avant et après une intervention peut être interprétée en termes de changement conceptuel. Le courant du changement conceptuel étudie les modèles mentaux des élèves au sujet de certains phénomènes et la façon dont ils changent au cours de l’enseignement. Dans les recherches en technologies éducatives, la méthode a été utilisée par De Vries, Lund, et Baker (2002) pour étudier les conceptions des élèves au sujet du son. Ces conceptions ont pu être qualifiées de macroscopiques, le son comme une substance avec impulsion qui voyage (comme du vent), ou de microscopiques en termes de mouvements linéaires ou aléatoires de molécules. Dans cette étude, les élèves étaient mis en binôme en fonction de leurs modèles mentaux, à savoir des conceptions contrastantes pour favoriser l’explication et l’argumentation à leur sujet. Notons que chaque expérimentation demande une nouvelle analyse de contenu ; il s’agit de l’enjeu épistémique de l’innovation pédagogique en question.

4.2.2.Le processus de construction

48Alors que le premier type de grille vise le contenu, un deuxième type de grille d’analyse recherche dans les textes les marques explicites du processus de construction des connaissances. Les approches constructivistes soulignent le rôle de la construction individuelle et du caractère contextuel dans l’apprentissage. On recherche alors des parallèles avec des processus de construction de connaissances scientifiques, tels que la formulation d’hypothèses ou l’interprétation de données. Par conséquent, les grilles d’analyse utilisées pour étudier l'apprentissage se focalisent sur ces processus. Le Tableau 1 montre la grille développée par Njoo & de Jong (1993) intégrant des processus de régulation, tels que la planification, la vérification et la veille.

Tableau 1 : Grille d’analyse pour les processus de découverte scientifique avec une simulation (Njoo & de Jong, 1993, notre traduction)

49A télécharger

50Ce type de grille a permis de montrer que, dans la plupart des cas, les apprenants ne savent pas formuler des hypothèses, ni concevoir des expériences décisives, ou encore interpréter les résultats (De Jong & Van Joolingen, 1998), activités qui sont pourtant indispensables pour l’apprentissage par la découverte. En d’autres mots, la perspective théorique postule des processus de construction comme intermédiaire dans l’utilisation de la technologie (ici les simulations) pour l’apprentissage. Ce type de recherche requiert de ce fait une mesure indépendante de l’activité de l’apprenant (les processus de construction) et des gains en apprentissage. Les travaux ont évolués par la suite vers une plus grande place accordée au rôle des enseignants dans un inquiry curriculum, ce qui demande des grilles d’analyse dédiées (Puntambekar, Stylianou, & Goldstein, 2007).

51Dans d’autres grilles d’analyse à inspiration constructiviste, comme pour le Knowledge Building (construction de connaissances), les apprenants sont également conceptualisés comme des chercheurs, mais c’est leur insertion dans une communauté de praticiens (Lave & Wenger, 1991) qui est soulignée. Scardamalia et Bereiter (1994) emploient la métaphore d'une communauté scientifique, communauté de chercheurs, pour conceptualiser l'apprentissage comme la construction intentionnelle de connaissances. Dans Knowledge Forum, les élèves peuvent ajouter, annoter, etc., des notes pour progressivement augmenter une base de données contenant leur théories, faits, hypothèses, etc. sur un sujet. L’objectif est alors de développer des indices de construction de connaissances à travers la pensée réflexive, c'est-à-dire des activités de monitoring, d'évaluation, et de modification de sa propre pensée et de comparaison à ces pairs et comment ces processus sont supportés par la technologie (voir aussi Lin, Hmelo, Kinzer et Secules, 1999, Scardamalia & Bereiter, 1994). Une telle construction de connaissances a été étudiée dans les réponses des apprenants aux questions posées a posteriori. Ainsi, la grille de Chan, Burtis, et Bereiter (1997) contient des catégories en niveaux de construction de connaissances (voir Tableau 2). Cette grille est utilisée pour étudier la façon dont les élèves relient les informations entre elles après avoir travaillé avec un logiciel comme Knowledge Forum, conçu pour l'apprentissage coopératif entre élèves. Aujourd’hui, les perspectives et objectifs ont également évolués, ainsi que les manières d’expérimenter (voir par exemple Zhang, Scardamalia, Reeve, & Messina, 2009).

Tableau 2 : Grille d’analyse pour les activités de construction de connaissances (Chan, Burtis, et Bereiter, 1997, notre traduction)

Image 10000000000001F400000086308D5D02.png

4.2.3 Les interactions entre participants

52Enfin, le troisième type de grille se propose d’étudier les interactions entre apprenant comme moteur dans les apprentissages. L'élaboration, l'explication et l'argumentation ont été mises en avant comme mécanismes d'apprentissage coopératif (Baker, 1996, 1999 ; De Vries, Lund, & Baker, 2002). Par une synthèse de la littérature, ces auteurs montrent qu'il existe au moins trois façons dont l'argumentation, comme une forme de dialogue, peut aboutir à une co-construction de connaissances. Premièrement, par le biais de l'explication ; en cas de conflit, les élèves sont obligés d'expliciter, de réfléchir, et éventuellement de réviser leurs conceptions. Un conflit peut même encourager la recherche ou la reconstruction active d'arguments en mémoire ou dans l'environnement. Ensuite, c'est l'issue de l'argumentation qui peut être à l'origine de l'élimination d'une fausse conception par la réfutation de celle-ci. Enfin, l'argumentation nécessite souvent des précisions sur les mots et concepts employés. Ainsi, un débat peut entraîner une reconceptualisation dans le champ ou une différenciation des concepts sous-jacents.

Tableau 3. Grille d’analyse des discussions épistémiques (de Vries, Lund et Baker, 2002)

Image 10000000000001F4000001099B35C839.png

53La grille de De Vries, Lund, et Baker (2002) comporte une première structuration en quatre catégories : explication, argumentation, résolution de problèmes et gestion, puis des sous-catégories (Tableau 3). Une telle grille d'analyse peut être utilisée pour caractériser le discours produit lorsque deux élèves travaillent à la résolution d'un problème dans une situation impliquant l'utilisation d'un logiciel. Généralement, le taux d’argumentation sur des concepts dans des domaines tels que la physique ou la chimie est faible. Par ailleurs, l’interaction à distance change certains paramètres dans la situation nécessitant de la gestion de l’interaction et de la gestion de la tâche ; le temps est alors partagé entre ces activités et des activités de type argumentation et explication. De nombreux travaux étudient comment concevoir la situation entière (contenu, tâche, technologie) pour minimaliser les activités de gestion et pour favoriser les discussions épistémiques entre élèves. Comme pour les deux autres types de grilles, ces grilles d’analyse sont continuellement adaptées dans des cycles itératifs de conception et d’évaluation de nouveaux dispositifs (voir par exemple Baker, Andriessen, Lund, van Amelsvoort & Quignard, 2007).

4.3.Construire et appliquer une grille d’analyse

54Si la précédente section montre bien comment une grille d’analyse sert de cadre d’explicitation des notions théoriques, peu d’indications y sont fournies quant à sa construction, son application, et sa mise à l’épreuve. En effet, l’utilisation d’une grille d’analyse présente de nombreux écueils pour lesquels nous nous referons à Chi (1997). Nous nous limitons à la mention de deux points.

55Premièrement, de nombreux allers et retours seront nécessaires entre une grille en élaboration et un sous-ensemble des données. Il s’agit de deux activités complémentaires. Dans le processus de définition d’une catégorie, on s’appuie sur les données pour apprécier ce qui pourrait en constituer un exemple. Inversement, pour catégoriser une donnée verbale, on s’appuie sur les catégories disponibles dans la grille en construction. Une telle phase d’allers et retours est cruciale dans la construction d’une grille. Elle nécessite un bon équilibre entre les poids respectifs accordés au cadre théorique et au corpus récolté. En définitive, le chercheur ne pourra éviter la sensation de se tirer, tel Le Baron de Münchhausen, de sables mouvants en se soulevant par ses propres cheveux. En effet, les trois cornes du trilemme, l’argument circulaire, la régression à l’infini, et le dogme, s’appliquent.

56Deuxièmement, la présentation des résultats doit comporter des informations quant à la fiabilité, c’est-à-dire quant à la précision de la grille. En effet, pour catégoriser ces données dites impropres, il existe rarement un accord entre juges ou un accord pour un même juge au cours du temps. En l’absence de référence, il n’existe pas de moyen objectif, seulement intersubjectif, pour classer, le test non paramétrique Kappa (K) de Cohen permet de chiffrer l’accord entre deux juges ou entre deux passages pour un même juge. Pour calibrer une grille d’analyse, une solution consiste à réaliser des séances de concordance entre juges pour estimer le taux d’accord par le coefficient Kappa et d’étudier leurs désaccords pour y remédier.

4.4.Une spécificité intentionnelle liée au processus et domaine de connaissance en jeu

57L’objectif de la méthode de Chi est de quantifier des données qualitatives pour pouvoir asseoir ses conclusions sur des activités complexes ou des apprentissages réalisés en contexte. La grille d’analyse en est un élément essentiel qui sert à expliciter les notions théoriques sous-jacentes. Néanmoins, on pourrait lui reprocher d’être formulée de manière ad hoc pour chaque étude. D’une étude à l’autre, nous observons des données de nature différente et des grilles d’analyse hétérogènes. La quantification paraît hautement dépendante de l’interprétation du chercheur sur les processus en jeu et en fonction de ses connaissances du domaine même. Les raisons à cela tiennent au fait que les processus de construction et ses productions dépendent du logiciel utilisé et du domaine étudié. La méthode présentée pourra être développée, précisée et étendue pour deux raisons. La première est que le caractère ad hoc des grilles tient à la multiplicité des travaux et la relative nouveauté du champ des apprentissages avec les technologies éducatives. Il n’y a pas de raisons de penser que ce caractère local soit inhérent à l’étude de processus de construction de connaissances. Les différentes grilles d’analyse méritent d’être comparées et précisées. La deuxième raison est que nous pensons que le contenu spécifique, i.e. la matière, doit être pris en compte. Quelle que soit l’innovation pédagogique, il ne s’agit pas d’étudier l’enseignement et l’apprentissage comme des phénomènes indépendants du domaine de connaissances, mais bien comme des phénomènes spécifiques à un contenu.

5. Traces et visualisations

58La technique présentée ci-dessus est toujours d’actualité puisqu’elle permet à la fois la rigueur et la flexibilité nécessaires. Or, deux évolutions dans les travaux sur les innovations pédagogiques méritent d’être mentionnées ici. La première gravite autour de la notion de traces, de traces d’interactions, ou encore de traces d’apprentissages (Lund & Mille, 2009). Ces auteurs définissent la trace ainsi :

Il s’agit d’une suite temporellement située d’observés, qui relève soit d’une interaction entre humains, médiatisée et médiée de diverses façons par ordinateur soit d’une suite d’actions et réactions entre un humain et un ordinateur. Cette trace est éventuellement rejouable, auquel cas, elle devient dynamique. Elle est numérique puisqu’il s’agit d’enregistrements d’actions effectuées sur ordinateur ou d’une version numérisée de vidéo (montrant des humains en interaction ou montrant une capture d’écran lors de cette interaction).

59L’analyse systématisée des évènements et des interactions se trouve facilitée par les moyens de traçage vidéo, audio, et informatique. Au niveau international, le colloque Learning analytics and knowledge témoigne de l’intérêt de ce nouveau domaine d’activité en matière d’innovation dans l’expérimentation. Cette mouvance coïncide avec l’intérêt pour la fouille de données éducatives (Siemens & Baker, 2012). Les learning analytics (analyse de l’apprentissage), lors de la première édition du colloque en 2011, ont été définis ainsi :

Learning analytics is the measurement, collection, analysis and reporting of data about learners and their contexts, for purposes of understanding and optimising learning and the environments in which it occurs

60A nouveau, les deux visées de la compréhension et de l’optimisation apparaissent. Une deuxième évolution concerne les moyens de visualisation dont on peut disposer aujourd’hui. Ces visualisations sont utilisées par les enseignants et élèves eux-mêmes en développant des dashboards (tableaux de bord). Verbert, Duval, Klerkx, Govaerts & Santos (2013) font un état de l’art recensant plusieurs applications. Elles sont également précieuses dans la recherche en donnant un nouvel essor aux courbes de l’apprentissage (Baker, Hershkovitz, Rossi, Goldstein, & Gowda, 2013) et autres représentations graphiques innovatrices, comme par exemple des learnograms (Hershkovitz & Nachmias, 2009). Malgré ces avancées dans les techniques de traçage et de visualisation, il nous semble que la compréhension des phénomènes d’enseignement et d’apprentissage ne pourra se passer de l’interprétation par l’humain telle qu’elle est formalisée dans la technique de Chi présentée ci-dessus.

6. Conclusion

61Cet article a commencé par une réflexion à caractère épistémologique sur la dialectique innovation-expérimentation. Nous avons souligné deux contrastes pertinents. D’abord, nous avons pointé l’opposition entre logique de compréhension de phénomènes et logique de conception de nouveaux dispositifs, opposition très présente dans des domaines où collaborent sciences humaines et sociales et sciences de l’ingénieur. Ensuite, nous avons repris l’opposition entre le respect de la complexité des situations pédagogiques et la validité écologique d’un côté, et la fiabilité et le pouvoir de généralisation des conclusions de l’autre. Les deux contrastes ont permis de soulever des enjeux épistémologiques dans un champ singulier de l’expérimentation des innovations, celui de l’éducation en général et de la technologie de l’éducation en particulier. Nous avons relaté comment des pièges dans la recherche de dispositifs innovants en éducation ont été identifiés par les learning sciences et des précautions formulées. La visée est, de façon explicite, d’articuler les deux extrémités des deux contrastes identifiés : le développement de dispositifs innovants et l’étude de leur utilisation d’une part, et d’autre part l’authenticité et la scientificité. Enfin, nous avons exposé une technique spécifique de quantification pour montrer à quoi notre réflexion épistémologique engage. Ces démarches dans la recherche en éducation et en technologie éducative pourraient être appliquées dans l’expérimentation d’innovations autres qu’éducatives.

Bibliographie

Bachelard, G. (1938). La formation de l’esprit scientifique. Paris : Vrin.

Baker, M. J. & Lund, K. (1997). Promoting reflective interactions in a CSCL environment. Journal of Computer-Assisted Learning, 13, 175-193.

Baker, M. J. (1996). Argumentation et co-construction des connaissances. Interaction et cognitions, 1, 157-191.

Baker, M. J. (1999). Argumentation and constructive interaction. In P. Coirier & J. Andriessen (Eds.), Foundations of Argumentative Text Processing (pp. 179-202). Amsterdam: University of Amsterdam Press.

Baker, M. J., Andriessen, J., Lund, K., van Amelsvoort, M., & Quignard, M. (2007). Rainbow: A framework for analysing computer-mediated pedagogical debates. International Journal of Computer-Supported Collaborative Learning, 2, 315-357.

Baker, R. S., Hershkovitz, A., Rossi, L. M., Goldstein, A. B., & Gowda, S. M. (2013). Predicting robust learning with the visual form of the moment-by-moment learning curve. The Journal of the Learning Sciences, 22, 639-666.

Barab, S. & Squire, K. (2004). (Eds.) Special Issue on Design-Based Research. The Journal of the Learning Sciences, 13, 1.

Baron, G. L., & Bruillard, E. (2008). Technologies de l'information et de la communication et indigènes numériques: quelle situation ? Revue des Sciences et Technologies de l'Information et de la Communication pour l'Education et la Formation (STICEF), 15, 12-pages.

Brown, A. L. (1992). Design experiments: Theoretical and methodological challenges in creating complex interventions in classroom settings. The Journal of the Learning Sciences, 2, 141-178.

Bruillard, E. (1997). Les machines à enseigner. Paris: Hermès.

Chan, C., Burtis, J. & Bereiter, C. (1997). Knowledge building as a mediator of conflict in conceptual change. Cognition and Instruction, 15, 1-40.

Chi, M. T. H. (1997). Quantifying qualitative analyses of verbal data: a practical guide. The Journal of the Learning Sciences, 6, 271-315.

Cobb, P., Confrey, J., diSessa, A., Lehrer, R., & Schauble, L. (2003). Design experiments in educational research. Educational Researcher, 32, 9-13.

Cohen, L. Manion, L. Morrison, K. (2000). Research methods in education (5th ed.). London : Routledge Falmer

Collins, A. (1992). Toward a design science of education. In E. Scanlon & T. O'Shea (Eds.), New directions in educational technology (15-22). New York: Springer Verlag.

De Jong, T., & Van Joolingen, W. R. (1998). Scientific discovery learning with computer simulations of conceptual domains. Review of Educational Research, 68, 179-202.

De Vries, E. (2001). Les logiciels d'apprentissage : panoplie ou éventail ? Revue Française de Pédagogie, 137, 105-116.

De Vries, E. (2003). Educational technology and multimedia from a cognitive perspective: Knowledge from inside the computer, onto the screen, and into our heads? In H. van Oostendorp (Ed.), Cognition in a digital world (pp. 155-174). Mahwah, NJ: Lawrence Erlbaum Associates.

De Vries, E. & Baillé, J. (2006). Apprentissage : Référents théoriques pour les EIAH. In M. Grandbastien & J.-M. Labat (Eds.), Environnements Informatiques et Apprentissages Humains (pp. 27-45). Paris : Hermès, collection IC2.

De Vries, E., & De Jong, T. (1997). Using information systems while performing complex tasks: an example from architectural design. International Journal of Human-Computer Studies, 46, 31-54.

De Vries, E., & De Jong, T. (1999). The design and evaluation of hypertext structures for supporting design problem solving. Instructional Science, 3-4, 285-302.

De Vries, E., Lund, K. & Baker, M. (2002). Computer-mediated epistemic dialogue: Explanation and argumentation as vehicles for understanding scientific notions. The Journal of the Learning Sciences, 11, 63-103.

Feenberg, A. (2009). Science, technology and democracy: Distinctions and connections. In Forum Mondial Sciences et Démocratie. Retrieved December (Vol. 14, p. 2010).

Hadji, C & Baillé, J. (1998). Recherche en éducation : Vers une "nouvelle alliance". Bruxelles : De Boeck.

Hershkovitz, A., & Nachmias, R. (2009). Learning about online learning processes and students' motivation through Web usage mining. Interdisciplinary Journal of E-Learning and Learning Objects, 5, 197-214.

Latour, B. (2001). L'espoir de Pandore: pour une version réaliste de l'activité scientifique. Paris : Éditions La Découverte.

Lave, J. & Wenger, E. (1991). Situated learning. Cambridge: Cambridge University Press.

Lemke, J. L. (1998). Analysing verbal data: principles, methods and problems. In B. J. Fraser & K. G. Tobin (Eds.), International Handbook of Science Education (pp. 1175-1189). Dordrecht : Kluwer.

Lin, X., Hmelo, C., Kinzer, C. K., & Secules, T. J. (1999). Designing technology to support reflection. Educational Technology, Research and Development, 47(3), 43-62.

Lund, K., & Mille, A. (2009). Traces, traces d'interactions, traces d'apprentissages: définitions, modèles informatiques, structurations, traitements et usages. Dans J.-C. Marty & A. Mille (Eds.), Analyse de traces et personnalisation des environnements informatiques pour l'apprentissage humain (pp. 21-66). Paris : Hermès.

Mitcham, C. (1994). Thinking through technology: The path between engineering and philosophy. Chigaco: University of Chicago Press.

Njoo, M., & De Jong, T. (1993). Exploratory learning with a computer simulation for control theory: Learning processes and instructional support. Journal of Research in Science Teaching, 30, 821-844.

Perrin, J. (2001). Concevoir l'innovation industrielle: Méthodologie de conception de l'innovation. Paris : CNRS éditions.

Puntambekar, S., Stylianou, A., & Goldstein, J. (2007). Comparing classroom enactments of an inquiry curriculum: Lessons learned from two teachers. The Journal of the Learning Sciences, 16, 81-130.

Quivy, R. & Van Campenhoudt, L. (1988). Manuel de recherche en sciences sociales. Paris : Bordas.

Reuchlin, M. (1992). Introduction à la recherche en psychologie. Paris : Nathan.

Scardamalia, M. & Bereiter, C. (1994). Computer support for knowledge-building communities. The Journal of the Learning Sciences, 3, 265-283.

Schwartz, D. L., & Martin, T. (2003). Representations that depend on the environment: interpretative, predictive, and praxis perspectives on learning. The Journal of the Learning Sciences, 12, 285-297.

Shavelston, R. J., Philips, D. C., Towne, L. & Feuer, M. J. (2003). On the science of education design studies. Educational Researcher, 32, 25-28.

Siemens, G., & Baker, R. S. (2012, April). Learning analytics and educational data mining: towards communication and collaboration. In Proceedings of the 2nd international conference on learning analytics and knowledge (pp. 252-254). ACM.

Simon, H. A. (1981). The sciences of the artificial (2nd ed.). Cambridge, MA: MIT press.

Sloane, F. C. & Gorard, S. (2003). Exploring modeling aspects of design experiments. Educational Researcher, 32, 29-31.

Spector, J. M., Merrill, M. D., Elen, J., & Bishop, M. J. (2014). Handbook of Research on Educational Communications and Technology. New York: Springer Verlag.

Stokes, D. E. (1997). Pasteur's quadrant: Basic science and technological innovation. Washington: Brookings Institution Press.

Verbert, K., Duval, E., Klerkx, J., Govaerts, S., & Santos, J. L. (2013). Learning analytics dashboard applications. American Behavioral Scientist, 0002764213479363.

Zhang, J., Scardamalia, M., Reeve, R., & Messina, R. (2009). Designs for collective cognitive responsibility in knowledge-building communities. The Journal of the Learning Sciences, 18(1), 7-44.

Cook, T.E. (1994). Criteria of social scientific knowledge : Interpretation, prediction, praxis. Lanham : Rowan & Littlefield.

Pour citer cet article

Erica de Vries (2016). "L’expérimentation des innovations en éducation : réflexion épistémologique, pièges et précautions". - La revue | Numéro 4 - "Des expérimentations pour l'innovation aux innovations dans l'expérimentation".

[En ligne] Publié en ligne le 02 décembre 2016.

URL : http://innovacs-innovatio.upmf-grenoble.fr/index.php?id=340

Consulté le 20/09/2017.

A propos des auteurs

Erica de Vries

Professeure des universités au Laboratoire des Sciences de l’Education (LSE) de l’Université Grenoble Alpes. Ses activités d’enseignement portent sur les technologies éducatives et leurs fondements liés aux théories et modèles de l’apprentissage. Ses recherches ont pour ambition de thématiser la représentation externe, en opposition à la représentation interne mentale, comme technologie cognitive dans sa double dimension sémiotique et opératoire.

Erica.deVries@univ-grenoble-alpes.fr




Contacts

SFR INNOVACS

Université Grenoble Alpes

1221 avenue centrale - Domaine universitaire

38400 Saint-Martin d'Hères

sabrina.barbosa@univ-grenoble-alpes.fr

http://innovacs.univ-grenoble-alpes.fr/

Abonnez-vous

Recevez en temps réel les dernières mises à jour de notre site en vous abonnant à un ou à plusieurs de nos flux RSS :

Informations légales

ISSN électronique :

Dernière mise à jour : 23 février 2017

Edité avec Lodel.

Administration du site (accès réservé)