M@n@gement 2006/3 Vol. 9

Couverture de MANA_093

Article de revue

La réutilisation de données qualitatives en sciences de gestion : un second choix ?

Pages 199 à 221

Notes

  • [1]
    Ces données sont accessibles à : http://www.anderson.ucla.edu/faculty/dick. rumelt/rumelt_ssdata.htm
English version

1 La réutilisation des données qualitatives (RDQ) est une méthodologie assez peu mobilisée en sciences de gestion. Cet article s?interroge sur le statut, la légitimité, les potentialités et les limites qu?elle peut y avoir. Après avoir examiné la place accordée à la RDQ au sein des méthodes en sciences de gestion, nous procéderons à sa délimitation et au repérage de la variété de ses formes, nous précisons les questions épistémologiques soulevées avant d?envisager les conditions de son utilisation.

2 La réutilisation des données qualitatives n?est pas une pratique de recherche courante en sciences de gestion. Elle « consiste dans le réexamen d?un ou plusieurs ensemble de données qualitatives dans l?optique de poursuivre des questions de recherche qui sont distinctes de celles de l?enquête initiale » (Thorne, 2004 : 1006). Comme toute innovation méthodologique, elle doit passer au crible des critères de validité scientifique. Ainsi, on peut s?interroger sur la place et le statut à accorder à la réutilisation des données qualitatives (RDQ désormais) en sciences de gestion ?

3 La question prête à querelle. La RDQ peut sembler illégitime. En effet, réutiliser les données qualitatives, collectées par un autre chercheur, avec des fins nouvelles, prive le chercheur de son rapport au terrain et, ce faisant, le prive d?une (ou de sa) capacité de compréhension. Inversement, pour d?aucuns, la RDQ fait partie de l?arsenal classique des méthodes. Ainsi, pour Glaser (1962 : 74) la RDQ « ne se limite pas aux données quantitatives. Les notes d?observation, les entretiens non structurés et les documents peuvent être ré-analysés avec profit ». Récemment, Heaton (2004) a livré la première recension systématique de la RDQ et souligne combien celle-ci a désormais droit de cité dans plusieurs domaines, tels que les recherches en soins infirmiers ou la criminologie. Cependant, qu?en est-il dans le champ de la gestion ? Les connaissances qui y sont produites « relèvent de l?observation [mais également] d?une contribution directe et revendiquée à l?action » et les connaissances produites « concernent les modes de conception de l?action collective » (David, 2002 : 255-257). Ainsi, l?établissement du caractère scientifique de leur contribution est intimement lié à la rigueur des méthodologies à l?œuvre dans le champ. Les particularités des sciences de gestion peuvent rendre délicate voire suspecte la RDQ, tant elle éloigne le chercheur de son objet. Il est fréquemment avancé que le rapport privilégié au terrain lui offre sa légitimité et sa portée. Pourtant, certains travaux emblématiques ont été conduits sur la base d?une RDQ. En psychosociologie des organisations, Weick (1993) a analysé l?incendie de Mann Gulch en s?appuyant sur l?ouvrage de Maclean (1992) qui relate cet incendie au cours duquel treize pompiers périrent.

4 Cet article invite à s?interroger sur le statut, la légitimité, les potentialités et les limites de la RDQ en sciences de gestion. Après avoir examiné la place accordée à la RDQ au sein des méthodes en sciences de gestion, nous procéderons à sa délimitation et au repérage de la variété de ses formes, nous préciserons les questions épistémologiques soulevées avant de préciser les conditions de son utilisation.

DÉFINITIONS ET FRONTIÈRES DE LA RDQ

5 Si la réutilisation des données paraît réglée en méthodologie quantitative, elle ne l?est pas pour les méthodologies qualitatives. La RDQ revêt des formes variées, aussi bien quantitatives que qualitatives. La délimitation de cette pratique reste toutefois difficile. Ainsi, il est possible de s?interroger sur une variété de pratiques courantes qui constitueraient en première approche des formes déguisées de RDQ.

LA RÉUTILISATION DE DONNÉES DANS LES RECHERCHES QUANTITATIVES

6 La démarche qui consiste à retravailler les données est courante dans le domaine quantitatif. Elle s?inscrit dans une logique de capitalisation des connaissances empiriques. Elle peut prendre la forme d?une réplication pour contrôle des résultats, notamment lorsque les instruments se sont sophistiqués et permettent l?affinement, voire le renversement, des résultats. Ainsi, en stratégie, les bases de données américaines qui mesurent le niveau de diversification des firmes et son incidence sur la performance ont fait l?objet de plusieurs retraitements. Une autre pratique consiste à utiliser la base de données pour tester des hypothèses nouvelles qui ne figuraient pas dans le cadre initial de la recherche. Enfin, dans une démarche inductive, les données peuvent conduire à des questions et des théorisations inédites. Cette banalisation de l?usage du retraitement des données quantitatives s?explique par certaines qualités présupposées. Les données seraient plus flexibles dans la mesure où elles subiraient moins la contrainte de contextualisation. Elles s?émanciperaient des conditions de leur production et du projet de recherche initial ; en d?autres termes, elles seraient moins “souillées” par les interactions avec le chercheur. Leur libre circulation serait donc facilitée par leur neutralité. Il semble enfin que les auteurs exploitant des bases de données quantitatives en fournissent plus aisément l?accès (sous réserve, parfois, d?engagement au secret statistique). Par exemple, Rumelt a mis en ligne les données qui ont servi de base à sa recherche (1974) sur la performance des formes de diversification [1].

7 La méta-analyse (ou la revue) d?études de cas constitue une forme fréquente de RDQ en sciences de l?organisation que l?on peut caractériser d?intermédiaire entre les approches qualitatives et quantitatives. Elle cherche à établir un lien entre l?enquête nomothétique (une approche systématique où des hypothèses sont testées) et l?étude de cas idiographique (la compréhension fine du sujet observé) afin d?en combiner les avantages respectifs (Larsson, 1993). Yin (2002) suggère ainsi qu?un jeu d?étude de cas peut être interrogé au moyen d?un instrument de codification et, si le nombre de cas est suffisamment grand, des données catégorielles peuvent faire l?objet d?une analyse statistique sophistiquée. La méthode réside donc dans l?application d?un traitement quantitatif à un ensemble de cas pour en induire une théorie ou, le plus souvent, pour tester une grille de lecture. La procédure standard consiste alors à : 1/sélectionner un groupe d?études de cas en adéquation avec les questions de recherche posées ; 2/choisir un schéma de codage afin de convertir les descriptions qualitatives en variables quantifiées ; 3/utiliser de multiples codeurs afin de coder les cas et de mesurer la fiabilité inter-codeurs ; 4/analyser statistiquement les données codées (Larsson, 1993).

8 Par exemple, Yin et Heald (1975) ont conduit une étude sur la décentralisation urbaine articulée autour d?une revue d?études de cas dont ils ont précisé le dispositif, notamment le processus de sélection des études de cas. La méta-analyse a consisté dans l?application uniforme d?une check-list de 118 questions aux 269 études de cas de décentralisation. La fiabilité de la liste a d?abord été testée en croisant les listes de réponses de deux ou plusieurs analystes sur 14 études de cas. Différentes questions ont ensuite été insérées pour servir de critères explicites au rejet des études de cas dans la suite de l?analyse (selon les principes de validité interne et externe). Ces critères ont enfin permis aux auteurs de classer les études en niveau de qualité : selon le caractère explicite et robuste de la méthode et la pertinence du design de la recherche. En stratégie, la méta-analyse a été utilisée pour élaborer des archétypes de transition organisationnelle (Miller et Friesen, 1980). Les auteurs ont testé dans la phase exploratoire leurs hypothèses sur une base de données composée de 36 firmes dont ils avaient extrait 135 périodes de transition. Ces données étaient issues d?ouvrages historiques et de manuels de cas. Les résultats ont ensuite été confrontés à l?analyse d?un nouvel échantillon d?entreprises afin de tester la validité, la fiabilité et la généralité des découvertes.

9 Malgré l?intérêt de ces analyses quantitatives d?études de cas, nous nous focaliserons dans la suite de l?article sur la réutilisation qualitative de données qualitatives.

« THE MANN GULCH DISASTER » (WEICK, 1993) : UNE SINGULARITÉ MÉTHODOLOGIQUE ?

10 La contribution de Weick (1993) est le plus souvent produite en exemple avéré de la réutilisation de données qualitatives en sciences de l?organisation. Elle s?organise autour d?une source unique et singulière : l?ouvrage de Maclean (1992) qui décrit un incendie au cours duquel 13 pompiers périrent dans le Montana en 1949. La démarche de Weick se rapproche de l?induction. Son projet de recherche se décline en deux questions : « Pourquoi les organisations s?effilochent-elles ? Et comment peuvent-elles être rendues plus résilientes ? » (Weick, 1993 : 628). L?auteur trouve dans le travail de Maclean un matériau propice et propose une analyse plausible des événements dépouillés. Plusieurs recommandations s?ensuivent sur la façon d?améliorer la résilience des organisations, puis Weick replace l?analyse dans le cadre des écrits en organisation afin de montrer la nécessité de différents réexamens.

11 Weick prend soin de retracer la méthodologie de Maclean : d?abord, parce que 28 années se sont écoulées entre le désastre et le travail de Maclean ; ensuite implicitement parce qu?il accède aux « mises en forme(s) » et non aux « saisies empiriques » (Kœnig, 2005 : 1). Son souci est aussi de purger l?ouvrage de sa prose élégante et de sa dimension dramatique pour n?en retenir que les événements et les revoir afin de produire un contexte propice à l?analyse. Le retour aux conditions de production des données permet de légitimer l?approche. Weick souligne la richesse et la variété du matériau collecté et des modes d?investigation retenus par Maclean. Ce dernier a conduit des entretiens avec les deux derniers acteurs survivants et des experts ; il s?est entouré de précaution s?agissant des témoins indirects (les parents notamment). Les enregistrements de traces et certaines preuves physiques des comportements passés dont la préservation fut exceptionnelle ont été examinés ainsi que de nombreuses archives (rapports suivant l?incident, archives officielles bien qu?une partie furent classées, rapports judiciaires suite aux litiges, photographies, etc.). Maclean a visité Mann Gulch à trois reprises, dont une avec les deux survivants dans le but de reconstituer les faits (une triangulation ayant été opérée afin de contrôler les incohérences). Il a reproduit une fois le parcours des pompiers dans des conditions au plus près de celles du drame, confrontant sans cesse photos et cartes avec les affleurements. L?expérience personnelle de l?auteur fut partie prenante du cas : il s?est rendu à Mann Gulch alors que le feu était encore actif ; il a vécu une expérience proche alors qu?il était jeune pompier. Enfin, des lacunes dans la compréhension des événements ont conduit Maclean, accompagné de deux experts, vers la modélisation mathématique de la diffusion des feux.

12 On peut s?interroger sur la possibilité d?étendre cette démarche méthodologique au-delà de la contribution de Weick. L?article constitue un instantané dans la conduite d?un projet de recherche qui a fait l?objet d?une lente maturation (Baumard et Ibert, 2003), ce qui tend à compenser l?absence de données de première main. De plus, la pensée de Weick s?organise autour de l?élaboration d?un langage cohérent et spécifique au projet. Tout ceci assure une certaine légitimité à la démarche. La densité exceptionnelle du matériau collecté au cours du travail initial et la variété des méthodes d?investigation ont permis à Weick de travailler sur une seule source primaire de diffusion publique. La qualité et la richesse d?une source unique étant souvent plus faible, le chercheur est conduit à en retenir plusieurs et à analyser de manière croisée ces divers matériaux. Par ailleurs, le support choisi par Weick, Administrative Science Quarterly, est reconnu pour accueillir un large spectre d?options méthodologiques. Enfin, Weick travaille des données réduites et mises en forme le conduisant à l?usage d?une « stratégie narrative » d?analyse (Langley, 1997 : 41).

LA DIVISION DU TRAVAIL DE RECHERCHE : UNE FORME DÉGUISÉE DE RDQ ?

13 Selon Glaser (1963 : 11), l?utilisation de l?analyse secondaire interroge « la position du chercheur indépendant dans la division du travail de recherche » et a à voir avec un problème fréquent : « comment mobiliser des ressources pour conduire un projet de recherche ? ». Dans les pratiques de recherche, on retrouve trois cas de figure, l?internalisation, l?arrangement hybride et la sous-traitance, qu?il est possible de confronter à la RDQ.

14 La conduite individuelle d?un projet de recherche est a priori sans lien étroit avec la pratique de la RDQ, le chercheur assumant l?ensemble des étapes de la méthode. Pourtant, des vagues de rationalisation se succèdent entre la conduite des premiers entretiens, l?émergence des formes et la dernière touche mise à l?analyse qui font peu à peu ressembler le chercheur à l?analyste secondaire de ses propres données. Le principe de récursivité (Hlady-Risplal, 2002) renvoie aux itérations successives inhérentes au processus de recherche qualitative. Dans l?itinéraire même du chercheur, il existe des ruptures entre les temps propres à la conduite de chaque recherche, mais les données servent parfois de fil conducteur parce qu?elles circulent de projet en projet. Elles se prêtent à différentes manipulations, voire torsions, et la proximité avec la RDQ s?opère ici : nous y reviendrons dans l?analyse des types de RDQ.

15 Un élément qui distingue la RDQ est le fait que les données utilisées aient été collectées par quelqu?un d?autre. Les logiques institutionnelles intègrent parfois la délégation de tout ou partie du travail de terrain à d?autres chercheurs. Par exemple, la recherche de Baden-Fuller et Stopford (1996) sur les conduites de régénération au sein des industries perçues comme matures s?organise autour de nombreuses études de cas. Il s?agit du produit d?un programme de recherche dans lequel l?analyse et la mise en forme finales ont été effectuées par les deux auteurs, alors que certaines études ont été réalisées par d?autres chercheurs, voire à l?occasion de contributions dans différents binômes. Ces formes hybrides de travail sont-elles à ranger parmi les méthodes de RDQ ? La question est plus aiguë s?agissant d?une sous-traitance poussée du travail de terrain.

16 Mintzberg, Raisinghani et Théorêt (1976) ont étudié la structure des processus de décision non structurés selon une méthode qui se rapproche par bien des aspects de la RDQ. En effet, les éléments empiriques ont été collectés sur une période de cinq ans par 50 équipes d?étudiants. Chaque équipe a étudié une organisation pendant trois à six mois. Il s?agissait d?isoler les processus de décision, d?en faire la description narrative et de les représenter sous formes d?étapes constituant un programme. Un guide de questions accompagnait les équipes afin de mieux comprendre les processus. Les étudiants ont ensuite été encouragés à confronter les processus examinés à la littérature du champ afin de la rejeter ou de l?enrichir. Ils ont conduit des entretiens structurés avec des décideurs et, pour certains, analysé des documents. Les équipes ont finalement reconstruit les processus de décision et tiré des conclusions vis-à-vis de la théorie. L?élaboration de la théorie par les auteurs s?est donc faite sur la base de rapports de 2500 mots minimum rédigés par les étudiants. Vingt-huit processus ont d?abord permis de définir la structure de base des processus stratégiques. Les auteurs se sont ensuite focalisés sur 20 autres processus analysés plus en détail afin d?élaborer la structure et différentes hypothèses ont été testées. Finalement, 25 processus des deux premières études ont été examinés en profondeur. Deux chercheurs ont réduit indépendamment chaque processus de décision sous forme de séquences de routines et de facteurs dynamiques. Les données générées ont alors permis de supporter un certain nombre d?hypothèses générées.

17 Le changement d?œil et de main crée ici une rupture dans le dispositif de recherche qui se rapproche de la RDQ. Le matériau traité s?assimile en partie à des données déjà formalisées. L?existence d?un paradigme partagé crée a contrario une continuité qui structure la conduite du projet de recherche. Dans le cas de Mintzberg et al. (1976), la collecte et le traitement des données s?inscrivent directement dans un projet de recherche porté par les auteurs de la contribution —les finalités sont clairement définies a priori– et le contrôle de la démarche méthodologique est avéré.

18 Qu?il s?agisse des formes collaboratives ou de sous-traitance de la recherche, l?alignement ou l?insertion cohérente au sein d?un design de recherche distingue selon nous ces différentes procédures de la RDQ. Ces quelques pratiques passées en revue renvoient toutefois, comme la RDQ, à l?éthique de la recherche. Seul le chercheur producteur de ses données serait habilité à les manipuler et toute intervention extérieure au processus conduirait à briser la chaîne naturelle de traitement des données. D?abord, la RDQ, rigoureusement menée peut permettre, nous le verrons, une ré-analyse et une validation du travail primaire accompli. Ensuite, au même titre que les autres connaissances scientifiques, les données font partie du débat scientifique.

19 Au terme de cette section, les réflexions sur la RDQ en sciences humaines et sociales (Heaton, 2004 ; Thorne, 2004 ; Corti, Witzel et Bishop, 2005) paraissent en avance sur les pratiques méthodologiques qui restent balbutiantes. Hormis un cas érigé en exemple, force est de constater que la RDQ peine à percer dans le champ des pratiques en dehors d?une utilisation accessoire (cas illustratifs) en sciences de l?organisation. Les ouvrages de méthode qualitative de langue française n?en traitent d?ailleurs pas (e.g., Hlady-Rispal, 2002), n?y consacrent que peu de place (e.g., Giroux, 2003) ou pointent des questions spécifiques autour des données secondaires (e.g., Baumard et Ibert, 2003). Cela tient sans doute au fait que la RDQ questionne le rapport du chercheur à sa matière première. Nous avons toutefois souligné différentes situations dans la pratique méthodologique qui mettent le chercheur directement ou non en retrait par rapport à ses données, et qui elles ne sont pas débattues. On notera que le débat sur l?analyse secondaire des données –remède à l?isolement du chercheur (Glaser, 1963)– a été initié depuis plusieurs décennies par Glaser (1962, 1963), un des co-fondateurs de la théorie enracinée. Les difficultés de délimitation de la RDQ amènent à préciser les formes qu?elle peut prendre.

DÉLIMITATION ET TYPES DE RDQ

20 La RDQ couvre une diversité de démarches que nous allons tenter d?ordonner. Nous discuterons ensuite de la nature du matériau retenu dans l?analyse. En effet, l?analyse secondaire invite à un retour sur ce qu?est une donnée.

CLASSIFICATION DES PRATIQUES DE RDQ

21 Différents types de RDQ ont été recensés par Heaton (2004, ch.3) Cette recension souligne la diversité des formes de RDQ et leur potentiel d?application (Tableau 1). On peut toutefois regretter chez Heaton des recouvrements entre les catégories repérées, parce que, comme l?auteur le reconnait, « les types ne sont pas exclusifs » (2004 : 38). De plus, l?utilisateur potentiel souhaiterait disposer d?une typologie construite à partir de critères qui renvoient à des situations de recherche.

Tableau 1

Types de réutilisation des données qualitatives*

Supra analyse Dépasse le focus de l?analyse primaire d?où les don
nées ont été tirées, en examinant de nouvelles ques
tions empiriques, théoriques ou méthodologiques.
Analyse supplémentaire Une investigation plus fouillée d?une question émer
gente ou d?un aspect des données qui n?a pas été
considéré ou insuffisamment envisagé lors de l?analy
se primaire.
Ré-analyse Les données sont ré-analysées pour vérifier et corro
borer les analyses primaires de l?ensemble de don
nées qualitatives.
Analyse amplifiée Combine des données de deux ou plusieurs études
primaires dans l?optique de comparer ou bien afin
d?élargir un échantillon.
Analyse assortie Combine l?analyse secondaire des données de la
recherche avec une recherche primaire et / ou l?ana
lyse de données qualitatives primaires.
figure im1

Types de réutilisation des données qualitatives*


* Heaton (2004 : 34) ; reproduit avec l?autorisation de Sage Publications.

22 Ces limites nous conduisent à proposer un reclassement des formes de RDQ selon deux dimensions : les finalités de la RDQ par rapport à l?étude initiale et la diversité des jeux de données.

23 La dimension de la finalité distingue une logique de réplication, d?accroissement de la robustesse de l?étude initiale d?une logique dans laquelle on cherche à tirer parti de données existantes dans le cadre d?une nouvelle problématique de recherche. La démarcation se fait ainsi entre une logique d?exploitation qui consiste à faire mieux parler les données existantes (principe d?efficience), et une logique d?exploration où le chercheur souhaite faire plus parler les données existantes en leur administrant de nouvelles questions (principe d?efficacité).

24 La dimension de la diversité des données distingue l?utilisation d?un unique jeu de données qualitatives du recours à plusieurs jeux de données. Dit autrement, dans le premier cas, les données ont été collectées lors d?un même projet de recherche, c?est-à-dire dans un contexte où les chercheurs à l?origine du projet ont collecté des données selon un protocole de recherche unique. Dans le second cas, le chercheur travaille à partir des données collectées lors de projets de recherche différents.

25 Ces deux dimensions permettent de reclasser les cinq formes recensées par Heaton (2004) en quatre ensembles que nous allons décrire et illustrer (Tableau 2).

26 Ré-analyse des données qualitatives. Elle s?opère sur un seul et même jeu de données ou sur une seule source de données. Elle apparaît comme un mode assez classique qui emprunte, nous l?avons dit, aux méthodologies quantitatives. Au-delà de considérations épistémologiques, elle consiste donc à répliquer le projet de recherche initial. Elle ne vise pas à faire parler différemment les données réutilisées mais à vérifier si celles-ci supportent les interprétations originelles. Les résultats peuvent être confirmés ou questionnés et réfutés (Heaton, 2004). Nous considérons également qu?il est possible de s?intéresser à la robustesse des résultats d?une étude antérieure en mobilisant de nouvelles techniques de traitement des données. Même si la réanalyse semble être la forme de RDQ la plus fréquente, elle fait l?objet d?assez peu de recherches dans les sciences humaines et sociales (Heaton, 2004). Le réexamen des rapports d?incidents se rapproche toutefois de cette forme de RDQ. Il consiste à donner a posteriori un sens plausible aux faits qui se sont produits ou d?en éclairer différemment un aspect, mais la finalité est au total la même : pourquoi et comment les événements se sont-ils déroulés ? L?étude de l?explosion de la navette Challenger produite par Vaughan (1996) est à ce titre exemplaire : elle est en partie fondée sur l?analyse critique du Report of the of the Presidential Commission on the Space Shuttle “Challenger” Accident. On observe alors de multiples réexamens (e.g., en France par Laroche [1998] ou Mayer [2003]), voire une mise en question sévère par Perrow (1999).

Tableau 2

Formes de RDQ en fonction de leur finalité et de la diversité des données

Diversité des données
Finalité Identique
Même question de recherche
Différente
Question additionnelle
ou nouvelle
Jeu de données unique Jeux de données multiples
Données issues d?un Données issues
même projet de recherche de plusieurs projets de recherche
Ré-analyse Analyse amplifiée
E.g., Vaughan (1996) E.g., Stinchcombe (1970), Larsson (1993)
Analyse supplémentaire Analyse assortie
E.g., Stinchcombe (1970), Weick (1993) E.g., Staudenmayer, Tyre et Perlow
(2002), Loilier et Tellier (2004)
figure im2

Formes de RDQ en fonction de leur finalité et de la diversité des données

27 Analyse supplémentaire et supra analyse. Sur un seul jeu de données, il est aussi possible de traiter d?une nouvelle question de recherche, que celle-ci consiste en une précision ou un approfondissement de la question de recherche initiale (analyse supplémentaire), ou bien qu?il s?agisse de traiter d?une nouvelle question de recherche (supra analyse). Dans le premier cas, l?analyse supplémentaire consiste à procéder à une analyse plus fouillée d?un sous-ensemble ou d?un aspect singulier des données, ou bien réside dans l?examen d?une question émergente. Une des situations les plus fréquentes concerne les programmes de recherche au cours desquels un matériau conséquent a été collecté et où différentes extensions ont été programmées suite à leur émergence en fin de processus. Ici le projet de recherche change de centre de gravité par rapport au projet initial. L?étude de Weick (1993) relève de ce type dans la mesure où l?auteur induit des questions précises des événements notamment sur la résilience organisationnelle. Dans le second cas, la supra analyse, le chercheur remet sur le métier des données dont le potentiel dépasse le cadre de l?analyse primaire qui a été conduite, soit parce que les données collectées peuvent être soumises au test de théories en émergence soit parce qu?elles peuvent aider à examiner des questions empiriques apparues. Selon Heaton (2004), ce type d?analyse est le plus souvent conduit par le chercheur qui a conduit la recherche initiale, parce que le retraitement s?inscrit dans la dynamique du projet de recherche de départ. Par exemple, Stinchcombe (1970) a développé un modèle composé de sept conditions qui déterminent le degré de dépendance des subordonnés dans différents types d?organisation. Les sept conditions ont été conceptualisées à partir de plusieurs projets de recherche conduits dans les années 1950 et 1960. Dans l?article, il a utilisé ces organisations afin de démontrer la variabilité dans ces conditions, complétant le dispositif de quelques autres exemples. Il les a ensuite rangés par degré de dépendance des subordonnés (Vaughan, 1992).

28 Analyse amplifiée. Elle introduit de la variété dans la RDQ en ce que l?on y mobilise les données de différentes analyses pour observer les points communs et les différences. Il peut s?agir d?un travail conjoint au cours duquel deux chercheurs ayant conduit des études indépendantes sur un même thème examinent les convergences et divergences entre leurs analyses (Heaton, 2004). Il y a donc unité dans les questions formulées et la RDQ prend ici la forme d?une analyse comparée. L?exemple évoqué précédemment de Stinchcombe (1970) relève en partie de cette catégorie à la différence que le chercheur primaire réutilise lui-même différentes études qu?il a menées. Plus intéressant, cette méthode peut être le fait d?un chercheur indépendant qui n?a pas été associé à la recherche primaire et dans le cadre d?un projet de recherche inédit. La méta-analyse d?étude de cas, même si elle s?appuie sur un protocole statistique sophistiqué, s?inscrit dans cette tradition (cf. les travaux de Larsson [1993] sur les fusions acquisitions).

29 Analyse assortie. Enfin, on parle d?analyse assortie lorsque les matériaux de différentes études sont détournés des finalités pour lesquelles ils avaient été initialement collectés et traités pour s?inscrire dans un projet de recherche inédit. Une situation particulière consiste à croiser la RDQ avec la conduite plus traditionnelle d?une méthode qualitative en prise directe avec le terrain. La RDQ vient dans ce cas compléter un projet de recherche et les conditions d?entrée des données réutilisées sont spécifiques : les catégories et dispositifs d?analyse doivent permettre une analyse comparée légitime. Notons que la seconde analyse peut dans certains cas nécessiter un matériau ayant une finesse inférieure au matériau de première main. Par exemple, la recherche conduite par Loilier et Tellier (2004) consiste dans le croisement de jeux de données distincts dans le cadre d?un projet de recherche inédit. Les auteurs étudient les conditions dans lesquelles la confiance peut constituer un mode de coordination lorsqu?il n?y a pas d?interaction directe sur un même lieu entre les acteurs d?un projet d?innovation. Pour ce faire, ils analysent le fonctionnement d?équipes de développement de logiciels libres associées au projet Linux. Ils élaborent dans un premier temps des catégories à partir de la littérature sur la confiance. Le cas des logiciels libres est ensuite élaboré sur la base de quatre sources principales : deux projets de recherche, une recherche publiée dans la revue Research Policy, et une recherche empirique publiée dans une revue professionnelle. L?ensemble est soutenu par le recours ponctuel à des travaux académiques, la visite de sites et des articles de presse. Les auteurs appliquent ensuite une procédure de codage traditionnelle en méthode qualitative pour analyser les conditions de production de la confiance et discuter leurs résultats. Autre cas, à l?occasion d?échanges informels, Staudenmayer, Tyre et Perlow (2002) ont noté que leurs trois études indépendantes, menées chacune dans le domaine du changement organisationnel, rapportaient collectivement des situations où des événements clés altéraient les rythmes quotidiens de travail et, par-delà, affectaient significativement l?expérience individuelle et collective du temps. En jouant sur l?expérience du temps, ces événements semblaient faciliter le changement organisationnel. Intriguées par cette coïncidence, les auteurs ont décidé de retourner aux données initiales pour mettre en évidence des parcelles documentant le concept de temps ainsi que son rôle dans le changement organisationnel. L?approche inductive a donc visé à élaborer de la théorie à partir d?un design qui croise les données de trois cas indépendants. Au départ, une question large a permis de structurer le projet : « quel rôle joue le temps dans le changement ? ». L?écriture synthétique de chaque cas mettant en exergue les relations uniques entre temps et changement a permis à chacune de se familiariser avec l?ensemble des cas. L?intérêt confirmé et les relations entre temps et changement avérées dans chacun des cas, différentes questions ont alors émergé. Les histoires de changement ont servi d?instrument analytique afin de faciliter la comparaison inter-site. Chaque changement a été décortiqué selon une même séquence : situation préexistante, événement perturbant le rythme, interprétation du temps et des événements de la situation par les individus, nature à court ou long terme des effets résultant. Les auteurs ont utilisé la méthode de comparaison constante : les histoires de changement ont été comparées par paire d?abord à l?intérieur d?un cas puis entre les cas. Elles ont identifié les composantes clés qui étaient partagées par les trois sites et la manière dont elles étaient similaires ou différentes pour chaque site.

30 Au-delà de la diversité des formes de RDQ, cette typologie souligne les implications possibles en termes de conditions d?utilisation, de fiabilité et de pertinence de la méthode. Elle soulève notamment la question de la diversité des matériaux utilisables dans la RDQ, notamment le fait qu?il soit possible de mobiliser un seul ou plusieurs ensemble de données.

LA QUESTION DU MATÉRIAU RETRAITÉ

31 La légitimité et l?exercice de RDQ dépendent pour beaucoup de la méthodologie de recherche primaire et des présupposés sur la qualité du matériau retraité.

32 Les auteurs qui défendent la RDQ (Heaton, 2004 ; Thorne, 2004) adoptent un point de vue étroit qui consiste à ne considérer que le seul retraitement des données collectées. En sciences de gestion, cela interdirait le retraitement des études de cas en ce que le matériau serait a priori beaucoup trop altéré par les subjectivités du chercheur primaire. En d?autres termes, il conviendrait de se tenir au plus près du matériau pur collecté, ce qui rend ce type de travaux plus aisés dans le cadre de laboratoires déployant des projets collectifs et collaboratifs. Le chercheur secondaire débute alors son processus au traitement (codage, etc.) des données collectées.

33 Cette conception naturaliste de la donnée est contestable dans la mesure où, tout d?abord, elle confond l?ontologie avec la donnée. Or, la donnée n?est pas indépendante des conditions de son recueil (Baumard et Ibert, 2003) ; elle est une représentation « qui permet de maintenir une correspondance bidirectionnelle entre une réalité empirique et un système symbolique » (Stablein, 1996 : 514). Ensuite, quel que soit le parti pris épistémologique sous-jacent à la recherche, le chercheur n?est jamais neutre par rapport à son terrain du fait que les méthodes qualitatives requièrent un niveau élevé d?implication (Hlady-Rispal, 2002), ne serait-ce que par l?investissement en temps demandé. Aussi, la réutilisation de données pures n?est pas gage de plus de rigueur : elle n?exonère pas d?un examen des conditions de recueil.

34 En effet, dans tous les cas de RDQ se pose la question de ne pas avoir été présent au moment de la collecte des données. « La perte de l?expérience contextuelle essentielle du “être là” et le manque de capacité à engager une interprétation réflexive [par rapport aux données] peuvent être considérés comme une barrière à la réutilisation » (Corti et Thompson, 2004 : 335). Toutefois, Mauthner, Parry et Backett-Milburn (1998) ont souligné que l?habileté à interpréter ses propres données peut aussi décliner au fil du temps parce que la mémoire s?affaiblit et que de nouvelles connaissances produites dans l?intervalle peuvent influencer la ré-interprétation des données. Baumard et Ibert (2003) ont également relevé un certain nombre d?idées reçues s?agissant des données de première main qui peuvent conduire à certains biais : le statut de vérité présumé de ces données peut conduire à un excès de confiance dans les dires des acteurs et à des théorisations trop intuitives ou tautologiques. La croyance que les données primaires ont une validité interne immédiate peut également amener à écarter des explications contradictoires ou à minorer certaines variables.

35 Dans une vision élargie, le retraitement d?études de cas est-il pour autant légitime ? Silverman (2000) souligne plusieurs fois que l?analyse de données est de manière décisive plus importante que la collecte des données elle-même, de telle sorte que, pour raccourcir ou faciliter cette phase, il encourage à travailler sur des données recueillies et traitées par d?autres chercheurs (analyse secondaire) ou trouvées dans la sphère publique (documents). On peut notamment considérer que, dès lors que le projet de l?analyste secondaire consiste dans la réplication systématique de l?étude initiale, il est possible de construire l?analyse à partir des données déjà formalisées. Selon Vaughan (1992 : 185), « il ne fait aucun doute que beaucoup d?analyses de cas, utilisant les mêmes théories, modèles, ou concepts, existent sans avoir jamais fait l?objet d?une comparaison systématique » et « l?analyse du travail d?autres chercheurs nous oblige à confronter les faits qui ne s?adaptent pas aisément à nos préconceptions » (1992 : 199). Baumard et Ibert (2003) vont dans le même sens et considèrent que l?étude de cas accomplie par un autre chercheur peut venir grossir le stock des représentations utilisé pour être rapprochée d?autres représentations.

36 On peut penser, au minimum, que l?étude retraitée a fait l?objet d?une validation par la communauté scientifique, ce qui constitue une forme de contrôle du matériau réutilisé. Ensuite, les traitements successifs des données permettent aux résultats de circuler sur le marché des connaissances en ce qu?ils sont présentés selon des codes partagés au sein d?une communauté scientifique. Toutefois, un excès de formalisme peut aussi conduire à accorder un crédit excessif aux données. Incidemment, en termes pratiques, cela suppose une fois encore de connaître avec précision le dispositif de collecte et de transformation des données (Baumard et Ibert, 2003). Ces derniers rapportent une étude de Podsakoff et Dalton (1987) qui montre que peu d?auteurs apportent les preuves de la validité de leur construit dans les articles publiés examinés. Enfin, dans les pratiques de recherches, les études de cas sont, plus souvent qu?on ne le pense, injectées dans le processus d?accumulation des connaissances scientifiques. Le cas des recherches menées selon une démarche inductive est intéressant puisque la connaissance générée est ici de fondement empirique. Ainsi en est-il de la contribution de Mintzberg et Waters (1985) qui distingue dans le processus stratégique le volet émergent et le volet délibéré et qui n?est aujourd?hui plus sujette à débat.

37 Le débat qui entoure l?utilisation de matériaux bruts ou mis en formes est indissociable du parti pris épistémologique de la recherche dans la mesure où le “chercheur secondaire” a d?une part à se situer par rapport aux données primaires et, d?autre part, à élaborer un dispositif rigoureux au regard d?un projet de recherche structurant.

LA RDQ A L’AUNE DES GRANDS COURANTS EPISTEMOLOGIQUES

38 Ainsi que nous l?avons souligné, la question du point de vue épistémologique traverse toutes les étapes de la méthodologie qualitative. La RDQ conduit le chercheur à se situer par rapport d?une part à son propre dispositif de recherche et d?autre part au processus primaire de collecte et de traitement des données qualitatives qu?il souhaite retravailler. Un chercheur, en fonction de sa posture épistémologique, se positionne par rapport au réel, avant et dans la production des données qualitatives mais également dans leur transformation qui prendra le plus souvent la forme d?une étude de cas. Guba et Lincoln (2005) ont proposé une classification en cinq paradigmes élaborée à partir des réponses à trois questions fondamentales interconnectées :

39

  • les hypothèses que le chercheur formule sur la nature de la réalité (la question ontologique) ;
  • les hypothèses qu?il formule sur leur rapport à l?observation de l?objet d?étude (la question épistémologique) ;
  • les moyens qu?il retient pour analyser le réel (la question méthodologique).

40 Nous proposons une réflexion sur la réutilisation des données qualitatives limitée aux trois paradigmes les plus rencontrés dans les pratiques de recherche en management : positivisme, interprétativisme et constructivisme.

41 S?il convient de se garder de tous les raccourcis, notamment dans la relation entre ontologie et méthodologie ainsi qu?entre méthodologie et épistémologie (M?Bengue, 2001), il semble que deux grands paradigmes peuvent a priori déboucher sur des postures favorables à la RDQ là où une épistémologie constructiviste paraît plus frileuse vis-à-vis de la démarche. Dans le cas d?une épistémologie positiviste, le recours à des données produites par d?autres chercheurs sera autorisé dans la mesure où la transparence sera faite sur l?ensemble du dispositif méthodologique déployé par le chercheur primaire (comme on le verra dans la section suivante). Le chercheur secondaire pourra alors correctement vérifier la fiabilité des données retraitées et a priori rien n?interdit la réutilisation de données formalisées, c?est-à-dire des études de cas. La connaissance scientifique progresse par sédimentation et se produit collectivement. Les résultats empiriques et l?explication produite par le chercheur primaire peuvent être versés au pot commun et soumis à la discussion dès lors que les procédures de contrôle ont fonctionné (principalement via la publication). Selon Hakim (1982 : 16), « un des avantages de l?analyse secondaire est que cela oblige le chercheur à penser étroitement aux questions théoriques et substantielles de l?étude plutôt qu?aux problèmes méthodologiques et pratiques de la collecte des données. Le temps et les efforts consacrés à obtenir les fonds et à organiser un nouveau chantier peuvent être plutôt voués à l?analyse et à l?interprétation des résultats ».

42 Dans le cas d?une épistémologie interprétativiste, si le chercheur secondaire accède aux données brutes, il est possible de considérer qu?il est en droit de faire débat en réinterprétant des données collectées par d?autres dès lors que le protocole de collecte est validé. Cela peut prêter à une querelle des interprétations. Plus encore, si le chercheur réutilise des études de cas formalisées, il produit alors sa compréhension des expériences traduites par d?autres chercheurs à partir du discours des acteurs. Il travaille donc sur des interprétations d?interprétations. Le chercheur secondaire des données n?est pas en prise directe avec les acteurs : l?attitude d?empathie qui caractérise le rapport du chercheur à l?acteur au sein de l?interprétativisme est en quelque sorte reportée sur l?ensemble du processus repris.

43 La RDQ pose plus de difficultés dans le cas d?une épistémologie constructiviste. Les données collectées et transformées par le chercheur initial aboutissent à la proposition de construits. Ces derniers sont le fruit d?une co-construction entre le chercheur et les acteurs via l?élaboration partagée d?un projet singulier. La probabilité de faire circuler les données sur le marché des idées entre différents chercheurs est donc limitée par la spécificité même du projet. A fortiori, elle le serait également entre les projets d?un même chercheur si ce dernier était porteur de nouvelles finalités dans le cadre de la recherche où les données sont réutilisées (analyse supplémentaire). Il conviendrait en théorie de réinscrire les données dans une interaction avec les acteurs de la recherche primaire.

44 Au total, si l?on adopte la posture weickienne dans laquelle tout n?est que reconstruction ex post, alors le chercheur est avant tout un producteur de discours légitime et, par nature, lui-même reconstruit (ou fruit d?une reconstruction). Le chercheur étant lui-même un individu faisant des reconstructions ex post, tout n?est que discours reconstruit. Dès lors, pourquoi se priver d?un recours à la RDQ sous prétexte de biais des données ou des matériaux alors même que le chercheur va biaiser les données dans sa reconstruction. Ainsi, le chercheur se devra avant tout de respecter des règles d?exposition permettant au lecteur de repérer les biais du discours (voire de permettre l?accès aux sources utilisées ou utiliser des sources communes). La question majeure devient alors celle de la capacité du chercheur à se prémunir des biais possibles de la RDQ, plutôt que celle d?une position de principe ex ante : le chercheur doit être en mesure de produire un discours convaincant, et, à cette fin, doit permettre de lever différents freins possibles à l?usage légitime d?une RDQ. Le Tableau 3 synthètise les points développés plus haut.

RECOMMANDATIONS PRATIQUES

45 Si l?idée d?une réutilisation des données qualitatives est admise, encore convient-il de préciser la mise en œuvre de la démarche et les conditions de validité de son usage (Stewart et Kamins, 1993 ; Heaton, 2004). Il est essentiel 1/d?utiliser un jeu de données en confiance (qu?il s?agisse de données brutes ou de mises en forme), ce qui nécessite la maîtrise de la source et de la qualité des données et 2/de vérifier la bonne adéquation entre le jeu de données et la question de recherche. Toutefois, le préambule à la RDQ consiste dans la possibilité pour un chercheur d?accéder au jeu de données conditionnant pour partie la qualité de la méthode.

L?ACCESSIBILITÉ, PRÉALABLE À LA RDQ

46 L?enjeu de l?accessibilité est double puisque la possibilité même d?une RDQ autant que la qualité de la démarche sont conditionnées par l?accès à des données ou aux mises en forme d?une étude primaire. Toutefois, comme nous l?avons auparavant souligné, l?accès à des données recouvre des situations variées telles que la réutilisation par le chercheur de ses propres ensembles de données, celle de données non traitées collectées par d?autres, ou encore la mobilisation d?études de cas formalisées et publiées. Plusieurs logiques d?accès semblent ainsi à l?œuvre.

Tableau 3

RDQ et principaux paradigmes de recherche

Positivisme Interprétativisme Constructivisme
Ontologie Hypothèse réaliste
La réalité est une donnée objecti
ve indépendante de l?observateur
qu?on ne peut appréhender qu?im
parfaitement ou par probabilité
(post-positivisme)
Hypothèse relativiste
La réalité est perçue / interprétée
par des sujets connaissants.
Hypothèse relativiste
La réalité est intentionnée,
construite dans l?interaction avec
l?objet, locale et spécifique.
Épistémologie Objectivisme
Principe de neutralité et imperfec
tion de la connaissance. Les
résultats sont probablement vrais.
Interprétation
Le chercheur interprète l?expé
rience vécue et énoncée par des
acteurs qui eux-mêmes produi
sent des interprétations sur l?ob
jet.
Interdépendance entre le cher
cheur et son objet.
Des projets et des interprétations
co-construits avec les acteurs
dans le cadre d?interactions.
Projet de
connaissance
Décrire, expliquer, confirmer
Découverte de régularités
Comprendre
Compréhension empathique des
représentations d?acteurs
Construire
Conception d?un phénomène pro
jet
Méthodologie :
conséquence
sur la RDQ
RDQ a priori possible
Le chercheur peut emprunter une
découverte empirique qu?il juge
vraie ou approchant la vérité.
Toute donnée validée fait partie
du stock de connaissances réutili
sables.
La RDQ est possible dès lors que
le protocole de la recherche pri
maire est vérifié et la qualité avé
rée.
RDQ a priori possible
Le chercheur travaille sur des
interprétations plausibles. Sur les
données primaires, il peut
confronter ses interprétations à
celles du chercheur initial.
Le chercheur emprunte des inter
prétations à d?autres chercheurs
sur une réalité elle-même inter
prétée par les acteurs.
RDQ a priori discutable
Le chercheur travaille sur des
construits, fruits d?une interaction
singulière. Le chercheur primaire
peut a priori retravailler ses
construits (il connaît les non dits
du rapport au terrain…) selon un
projet identique.
La circulation des données et
mises en formes entre projets et
entre chercheurs est très discu
table du fait d?une construction
singulière aux interactions entre le
chercheur et les acteur(s)
figure im3

RDQ et principaux paradigmes de recherche

47 Tout d?abord, dans une logique d?opportunité et d?itinéraire, le chercheur conduit fréquemment de multiples projets de recherche. Il est conduit dans ce cadre à générer des données empiriques qu?il peut être amené à revisiter à l?aune de nouvelles questions de recherche (cf. le travail évoqué de Stinchcombe [1970]). Cette situation spécifique simplifie la chaîne d?actions parce qu?elle réduit le design de la recherche et limite la procédure de contrôle : le chercheur connaît ses modes opératoires, les conditions de collecte des données, etc. Toutefois, le risque consiste à faire subir des torsions injustifiées aux données du fait d?une proximité trop grande.

48 Dans une logique communautaire, l?environnement du chercheur peut influencer la possibilité de la RDQ. L?existence d?une production au sein d?un laboratoire permet d?accéder à un certain nombre de résultats produits dans une logique de sédimentation des savoirs empiriques. L?ancrage dans un projet de laboratoire conduit à définir des étapes et des protocoles de collecte des données, voire de réutilisation successive par les différents chercheurs du laboratoire. Bien que la pratique soit moins courante dans les sciences de gestion que dans d?autres domaines scientifiques (Heaton, 2004), on trouve plusieurs exemples de laboratoires ayant des projets collectifs tel que le CRG de l?Ecole Polytechnique en France. Les réutilisations menées en son sein découlent toutefois autant de l?existence de projets collectifs que de la proximité entre les chercheurs qui favorise des mises en commun. Plus largement, le chercheur accède aux savoirs empiriques produits au sein de sa communauté scientifique mais, en général, dans leur forme publiée : articles, cas déposés, etc. Cette démarche est, nous l?avons vu, plus délicate car le problème se pose de vérifier la robustesse des résultats : leur réutilisation dépend de la forme des résultats et de la transparence du dispositif primaire.

49 Ensuite, la RDQ peut émaner des interactions sociales entre chercheurs et il s?agit sans doute de la majorité des cas. La RDQ dépend alors de la vie sociale du chercheur. Ainsi, l?étude déjà citée de Staudenmayer et al. (2002 : 587) a été initiée par « une série d?échanges de couloirs entre les auteurs » où elles ont perçu l?intérêt d?une réutilisation conjointe de leurs données. La réutilisation des données est ainsi fortement conditionnée par la possibilité d?initiatives collectives ou d?échanges interindividuels. Au-delà de l?exemple cité où les chercheuses coopèrent en apportant chacune un ensemble de données primaires, il convient de considérer aussi les logiques de division du travail discutées en première partie.

50 En sus de ces logiques où le chercheur secondaire agit comme un bricoleur (Heaton, 2004), des démarches formelles ou institutionnelles visent à faciliter l?accès aux données et à permettre une RDQ sur grande échelle. Ainsi, en Grande-Bretagne l?expérience de Quali-data vise à permettre l?accès direct à des bases de données qualitatives et leur partage entre chercheurs —moyennant le respect de contraintes d?identification pour le chercheur en quête d?un jeu de données. Les données de plus de cent études sont disponibles, dont l?étude longitudinale conduite par Pettigrew autour du “Management of Strategic and Operational Change” sur un ensemble de 8 entreprises de 4 secteurs différents (une entreprise performante et une non performante par secteur) sur la période 1958-1988 (Pettigrew, non daté), ou bien les études du groupe d?Aston conduites sous l?égide de Child (1984). En France, un rapport a été élaboré sur la question de la conservation des données qualitatives en sciences sociales (Cribier et Feller, 2003) et permet de faire le point sur la situation française mais aussi internationale. Il part d?un constat décevant pour la France : « la majorité des données qualitatives réunies depuis quarante ans ont disparu, peu d?entre elles sont conservées dans de bonnes conditions (c?est-à-dire complètes et documentées), et un très petit nombre a pu servir à de nouvelles recherches » (Cribier et Feller, 2003 : 2). L?objectif est alors de mettre en place un projet de conservation des données (cf. Cribier et Feller [2003], Cribier [2005] pour un état de la situation).

51 Enfin, il convient de noter combien le niveau d?accessibilité aux données conditionne la qualité même de la RDQ. En plus de la facilité et l?étendue de l?accès aux données elles-même, la possibilité ou non d?accéder aux auteurs de la collecte primaire ou de disposer de leurs manuels de procédure importe pour évaluer le processus de la recherche primaire. Elles permettent en cas de besoin de s?assurer de la qualité du protocole, voire d?éclaircir des zones d?ombre possibles ou des problèmes d?interprétation qui peuvent apparaître à l?occasion de la RDQ. Hinds, Vogel et Clarke-Steffen (1997) proposent une série de questions clé autour de l?accessibilité : elles sont présentées dans le Tableau 4.

52 Ces questions soulignent également la dimension éthique de la RDQ (a-t-on le droit ou peut-on disposer librement des données qualitatives ?). Lorsque l?accessibilité des données est permise selon des conditions acceptables, encore convient-il de s?assurer de l?adéquation du jeu de données à la démarche de RDQ.

PROTOCOLE D?UTILISATION DE LA RDQ

53 Il y a à s?accorder sur un protocole qui permette d?évaluer efficacement les données. Plusieurs travaux ont proposé une grille d?évaluation des données, ou des lignes de conduite visant à évaluer la possibilité d?une RDQ (Stewart et Kamins, 1993 ; Hinds et al., 1997 ; Heaton, 2004). Plutôt que d?insister sur des différences de sensibilité entre ces travaux, il est important de souligner combien ceux-ci s?accordent sur les points de passage obligés d?une démarche visant à mettre en place une RDQ (Tableau 5). Leur objectif est de vérifier que les données primaires respectent des conditions formelles de réutilisation. Par-delà la nécessité de disposer d?informations contextuelles sur la collecte des données primaires (signalétique des données), il faut s?assurer que les données de l?étude initiale ont été collectées selon un processus transparent, et en respectant un principe de qualité minimal (idée que les informations de la source initiale aient fait l?objet d?un effort de corroboration par le collecteur).

Tableau 4

Questions liées à l?accessibilité des données*

A1. Où, quand et comment accéder aux données ?
A2. Les données sont-elles toutes accessibles, ou seulement en partie
(e.g., retranscription des entretiens et pas les enregistrements) ?
A3. Les répondants ont-ils donné leur accord à l?utilisation des données dans l?étude ?
A4. Y a-t-il des conditions d?utilisation du jeu de données ?
A5. Peut-on consulter les auteurs de l?enquête au besoin ?
figure im4

Questions liées à l?accessibilité des données*


* Adapté de Hinds, Vogel et Clarke-Steffen (1997 : 420-422) et de Heaton (2004 : 93).

54 Ces lignes de conduite conduisent ainsi, dans un premier temps, à s?interroger sur la possible adéquation entre les données initiales et le projet de recherche. Tout d?abord, le problème d?adéquation sera plus ou moins vite tranché en fonction du type de RDQ. Dans le cas d?une démarche de ré-analyse ou d?analyse amplifiée, i.e. quand la question de recherche est la même que celle de l?étude initiale, l?utilisation du même jeu de données est acceptable dans la mesure où l?objectif consiste à répliquer l?étude ou dans une approche comparative. Par contre, la question de l?adéquation des données est d?une autre ampleur dès lors que le matériau est détourné des finalités de la recherche initiale. Il convient alors de s?interroger sur la capacité des données primaires à traiter la question de recherche, d?en atteindre les objectifs, de répondre aux besoins de contenu, etc. Si les données sont en partie obsolètes, ambigües ou insuffisantes en quantité et en qualité, si le poids de la contextualisation est trop élevé, etc., le chercheur essaiera de compléter le jeu des données, objet du retraitement, par des données issues d?autres projets de recherche, voire par la collecte primaire de données actualisées. L?analyse assortie s?inscrit dans cette perspective dans la mesure où le chercheur secondaire pallie l?incomplétude des différents jeux de données par leur analyse croisée (Heaton, 2004). Il s?agit incidemment de vérifier l?homogénéité et la compatibilité des données issues de projets de recherche différents (Q7 et Q8 du Tableau 5).

Tableau 5

Lignes de conduite pour évaluer la possible réutilisation des données*

Signalétique des données
D1. Auteur(s) de la collecte primaire
D2. Objectifs de la collecte primaire
D3. Description des données recueillies
D4. Déroulement de la collecte : moment et organisation du processus de collecte
Adéquation des données à la RDQ
S1. Le jeu de données est-il adapté aux objectifs de la recherche ?
S2. Le jeu de données est-il adapté au contenu de la recherche ?
S3. La quantité de données permet-il de traiter la question de recherche ?
S4. Le type et le format des données sont-ils compatibles avec la RDQ en cours ?
S5. Les données ne sont-elles pas trop contextualisées, voire périmées ?
Qualité des données
Q1. Le jeu de données est-il complet pour répondre aux finalités de la recherche
(i.e., peu ou pas de données manquantes) ?
Q2. Les données ont-elles été enregistrées entièrement et de façon adaptée ?
Q3. Des données ont-elles été modifiées (e.g., pour préserver l?anonymat) ?
Si oui, comment ?
Q4. Les données ont-elles été préparées d?une façon compatible avec une RDQ ?
Q5. Dispose-t-on d?une documentation sur les données (note méthodologique,
manuel de codage…) suffisante pour les finalités de la RDQ ?
Q6. L?étude primaire a-t-elle été bien conçue et mise en œuvre ?
Q7. Les données sont-elles compatibles entre elles ? Les données sont-elles
homogènes ?
Q8. Les données peuvent-elles être comparées (validation externe) avec d?autres jeux
de données au besoin ?
figure im5

Lignes de conduite pour évaluer la possible réutilisation des données*


* Adapté de Stewart et Kamins (1993), Hinds, Vogel et Clarke-Steffen (1997) et Heaton (2004)

55 Parmi ces questions, on notera le point crucial de l?alignement entre les données retraitées et la question de recherche, en particulier lorsque les données réutilisées sont détournées des finalités de la recherche première pour lesquelles elles ont été collectées et traitées. Ici, ce sont principalement les problèmes de dé-contextualisation qui sont soulevés. Les experts recommandent le croisement des données retraitées avec d?autres données —qu?elles soient primaires ou secondaires—, la variété des dispositifs de retraitement des données, enfin dans la mesure du possible, un échange serré avec le porteur du projet initial afin de limiter les risques de mauvaise interprétation. Dans l?exemple de Staudenmayer et al. (2002), la ré-analyse incluant le contexte est facilitée par le fait qu?elle soit effectuée par les auteurs des recherches initiales.

56 Dans un deuxième temps, la dimension plus opératoire de la RDQ consiste à interroger la qualité du jeu de données. Celui-ci est-il complet, dispose-t-on réellement de toutes les informations sous la forme adaptée à nos besoins de traitement ? Soulignons que le chercheur secondaire peut rencontrer des difficultés pratiques à juger de la qualité des données. S?agissant de données qualitatives, il peut être délicat d?apprécier la complétude des informations, par exemple lorsque le chercheur mobilise des matériaux issus d?entretiens semi-directifs (Q1 du Tableau 5). La question de l?enregistrement complet et adapté des entretiens (Q2) semble également en pratique délicate à vérifier. S?agissant d?entretiens, la question peut être liée aux modalités de l?enregistrement et de la retranscription des entretiens. Si l?accès aux retranscriptions est réduit, il existe un risque de perte de certains éléments de contextualisation (intonations, silences, hésitations…). Sans tomber dans un point de vue extrême (on peut considérer que tout entretien est biaisé du simple fait que son enregistrement peut en influencer le contenu —cf. Baumard et Ibert, 2003), il convient de souligner ici l?importance du jugement du chercheur secondaire qui, compte tenu des éléments en sa possession, considèrera comme valides ou non les données en sa possession. La nature du matériau peut sans doute jouer sur ce point : l?appui sur les données d?études publiées permet de considérer que l?étude initiale a déjà été passée au crible des critères de la rigueur scientifique.

57 L?audit qualitatif des données objet d?un possible retraitement varie ensuite selon que la démarche s?articule autour des données d?un même projet de recherche ou de données issues de plusieurs projets. Notamment, la vérification de l?homogénéité de données (Q7 du Tableau 5) constituées à partir de projets de recherche différents sera essentielle à la conduite de la RDQ. On notera ici l?interdépendance entre les questions. Vérifier l?homogénéité entre les données nécessite, par exemple, la mise à disposition d?un manuel de collecte des données (Q5) ainsi que la possibilité d?interagir avec les auteurs de l?étude initiale (A5 dans le Tableau 4) qui permettront si besoin est de mieux cerner le rôle des différences de contexte sur les données. La réalisation d?une analyse amplifiée ou d?une analyse assortie nécessitera, en cela, un double effort d?audit de la qualité des données des études et de leur compatibilité.

58 Enfin, l?analyse de la qualité des données varie selon que le matériau en question est ou non détourné des finalités de la recherche primaire. Si le chercheur secondaire est porteur du même projet, l?examen de la qualité des données revêtira une importance et une signification particulière. Ainsi, dans une ré-analyse, il permettra de souligner la robustesse des résultats de l?étude initiale et notamment leur véracité. Repérer un défaut de qualité des données initiales peut conduire à s?interroger sur la portée et la pertinence de l?étude initiale. En d?autres termes, la RDQ se rapproche ici d?un processus de relecture d?un travail de recherche.

CONCLUSION

59 Nous avons tenté dans cet article d?explorer une méthodologie qualitative qui fait l?objet d?une attention encore limitée en sciences de gestion : la réutilisation de données qualitatives. Au-delà d?exemples emblématiques, il était important de clarifier les formes de RDQ et de s?interroger sur les potentialités de cette méthode, mais aussi sur les exigences qu?elle soulève.

60 Après avoir examiné les proximités et divergences de la RDQ avec un ensemble de pratiques dans la division du travail de recherche, la méthode est apparue d?une grande diversité de formes. Au-delà de partis pris épistémologiques forts, l?analyse a permis de souligner combien la méthode est légitime dans le domaine des sciences de gestion. L?établissement du caractère scientifique d?une contribution en sciences de gestion est lié à la rigueur méthodologique de la recherche. Nous avons montré que la RDQ peut être conduite de façon pertinente dès lors que l?on s?appuie sur un examen robuste des matériaux objets d?une potentielle réutilisation. Il s?agit notamment de résoudre les problèmes délicats de l?accès aux données d?une part, de l?évaluation de leur adéquation à l?étude envisagée et de l?analyse de leur qualité d?autre part.

61 Bien menée, la RDQ constitue ainsi une manière intéressante d?épuiser le réservoir de potentialités des données qualitatives, d?ouvrir la voie à des questionnements renouvelés sur des études qualitatives mais aussi de mettre les matériaux empiriques au cœur des débats en sciences de gestion. Il convient, bien sûr, de répéter la difficulté fondamentale d?accès aux données qualitatives récoltées par d?autres, qui peut sensiblement limiter le recours à la méthode. Toutefois, des démarches interindividuelles, mais également collectives et institutionnelles, visant à assurer le partage des données, seraient à même de stimuler les controverses et les collaborations scientifiques. Cela permettrait également de tracer une voie nouvelle dans le processus collectif d?accumulation des connaissances. Mais, il s?agit ici d?une question, non plus de méthodologie, mais de politique scientifique.

62 Note. Nous remercions les évaluateurs, Isabelle Royer et Thomas Loilier pour leurs conseils et commentaires, ainsi que Florence Allard-Poesi, Bernard Forgues et les participants à la journée “Études de cas” de l?atelier Méthodologie de l?AIMS. Nous restons, bien évidemment, responsables des erreurs et omissions.

Bibliographie

RÉFÉRENCES

  • Baden-Fuller, C.W.F., et J.M. Stopford 1996 Rejuvenating the Mature Business : The Competitive Challenge, 2e édition, London : Routledge.
  • Baumard, P., et J. Ibert 2003 Quelles approches avec quelles données ?, in R.-A. Thiétart (coord.), Méthodes de recherche en management, 2e édition, Paris : Dunod, 821-103.
  • Child, J. 1984 Databank of Information from the Aston Programme of Organization Studies, 1962-1973, UK Data Archive, Colchester : University of Essex. Disponible [18/11/2006] : http://www.data-archive.ac.uk/findingData/snDescription.asp?sn=922
  • Corti, L., et P. Thompson 2004 Secondary Analysis of Archived Data, in C. Seale, G. Giampetro, J.F. Gubrimm, et D. Silverman (Eds.), Qualitative Research Practice, London : Sage, 327-343.
  • Corti, L., A. Witzel, et L. Bishop 2005 Special Issue : Secondary Analysis of Qualitative Data, Forum : Qualitative Social Research, 6 : 1. Disponible [18/11/2006] : http://www.qualitative-research.net/fqs/fqs-e/inhalt1-05-e.htm
  • Cribier, F. 2005 The Value of Qualitative Data and their Archiving : The French Situation, Forum : Qualitative Social Research, 6 (2), Art. 35. Disponible [18/11/2006] :http://www.qualitative-research.net/fqs-texte/2-05/05-2-35-e.htm
  • Cribier, F., et E. Feller 2003 Projet de conservation des données qualitatives des sciences sociales recueillies en France auprès de la “société civile”, Rapport au Ministère délégué à la recherche et aux nouvelles technologies, Paris : Ministère de la recherche et des nouvelles technologies. Disponible [18/11/2006] :http://lasmas.iresco.fr/rapport/Rapdonneesqualita.pdf
  • David, A. 2002 Connaissance et sciences de gestion, in T. Gaudin et A. Hatchuel (coord.), Les nouvelles raisons du savoir : vers une prospective de la connaissance, La Tour d'Aigues : L?aube, 251-279.
  • Giroux, N. 2003 L?étude de cas, in Y. Giordano (coord.), Conduire un projet de recherche : une perspective qualitative, Caen : EMS, 42-84.
  • Glaser, B.G. 1962 Secondary Analysis : A Strategy for the Use of Knowledge from Research Else-where, Social Problems, 10 : 1, 70-74.
  • Glaser, B.G. 1963 Retreading Research Materials : The Use of Secondary Analysis By the Independent Researcher, American Behavioral Sciencist, 6 : 10, 11-14.
  • Guba, E.G., et Y.S. Lincoln 2005 Paradigmatic Controversies, Contradictions, and Emerging Confluences, in N.K. Denzin et Y.S. Lincoln (Eds.), The Sage Handbook of Qualitative Research, 3e édition, Thousand Oaks : Sage, 191-205.
  • Hakim, C. 1982 Secondary Analysis in Social Research : A Guide to Data Sources and Methods with Examples, London : Allen & Unwin.
  • Heaton, J. 2004 Reworking Qualitative Data, London : Sage.
  • Hinds, P.S., R.J. Vogel, et L. Clarke-Steffen 1997 The Possibilities and Pitfalls of Doing a Secondary Analysis of a Qualitative Data Set, Qualitative Health Research, 7 : 3, 408-424.
  • Hlady-Rispal, M. 2002 La méthode des cas : application à la recherche en gestion, Bruxelles : DeBoeck Université.
  • Kœnig, G. 2005 Conduite et présentation d?un projet de recherche, Note non publiée, Paris : Université Paris XII.
  • Langley, A. 1997 L?étude des processus stratégiques : défis conceptuels et analytiques, Management International, 2 : 1, 37-50.
  • Laroche, H. 1998 L?ingénieur, le manager et l?astronaute, Gérer & Comprendre, 53 : 69-77.
  • Larsson, R. 1993 Case Survey Methodology : Quantitative Analysis of Patterns across Case Studies, Academy of Management Journal, 36 : 6, 1515-1546.
  • Loilier, T., et A. Tellier 2004 Comment peut-on se faire confiance sans se voir ? Le cas du développement des logiciels libres, M@n@gement, 7 : 3, 275-306.
  • Maclean, N. 1992 Young Men and Fire, Chicago, IL : University of Chicago Press.
  • Mauthner, N., O. Parry, et K. Backett-Milburn 1998 The Data Are Out there, or Are They ? Implications for Archiving and Revisiting Qualitative Data, Sociology, 32 : 4, 733- 745.
  • Mayer, P. 2003 Challenger : les ratages d?une décision, Paris : Presses Universitaires de France.
  • M?Bengue, A. 2001 Posture paradigmatique et recherche en management stratégique, in A.-C. Martinet et R.-A. Thiétart (coord.), Stratégies : actualités et futurs de la recherche, Paris : Vuibert, 43-53.
  • Miller, D., et P. Friesen 1980 Archetypes of Organizational Transition, Administrative Science Quarterly, 25 : 2, 268-299.
  • Mintzberg, H., D. Raisinghani, et A. Théorêt 1976 The Structure of “Unstructured” Decision Processes, Administrative Science Quarterly, 21 : 2, 246-275.
  • Mintzberg, H., et J.A. Waters 1985 Of Strategies, Deliberate and Emergent, Strategic Management Journal, 6 : 3, 257-272.
  • Perrow, C. 1999 Normal Accidents : Living with High-Risk Technologies, Princeton, NJ : Princeton University Press.
  • Pettigrew, A. non daté Management of Strategic and Operational Change, 1958-1988, UK Data Archive, Colchester : University of Essex. Disponible [18/11/2006] :http://www.data-archive.ac.uk/findingData/snDescription.asp?sn=5203
  • Podsakoff, P.M., et D.R. Dalton 1987 Research Methodology in Organizational Studies, Journal of management, 13 : 2, 419-441.
  • Rumelt, R.P. 1974 Strategy, Structure and Economic Performance, Boston, MA : Division of Research, Harvard Business School.
  • Silverman, D. 2000 Doing Qualitative Research : A Practical Handbook, London : Sage.
  • Stablein, R. 1996 Data in Organization Studies, in S.R. Clegg, C. Hardy, et W.R. Nord (Eds.), Handbook of Organization Studies, London : Sage, 509-525.
  • Staudenmayer, N., M. Tyre, et L. Perlow 2002 Time to Change : Temporal Shifts as Enablers of Organizational Change, Organization Science, 13 : 5, 583-597.
  • Stewart, D.W., et M.A. Kamins 1993 Secondary Research : Information Sources and Methods, 2e édition, London : Sage.
  • Stinchcombe, A.L. 1970 Organized Dependency Relations and Social Stratification, in E.O. Laumann, P.M. Seigel, et R.W. Hadge (Eds.), The Logic of Social Hierarchies, Chicago, IL : Markham, 95-99.
  • Thorne, S. 2004 Qualitative Secondary Analysis, in M. S. Lewis-Beck, A.E. Bryman, et T.F. Liao (Eds.), The SAGE Encyclopedia of Social Science Research Methods, Vol. III, London : Sage, 1006.
  • Vaughan, D. 1992 Theory Elaboration : The Heuristics of Case Analysis, in C.C. Ragin, et H.S. Becker (Eds.), What Is a Case ? Exploring the Foundations of Social Inquiry, Cambridge : Cambridge University Press, 173-202.
  • Vaughan, D. 1996 The Challenger Launch Decision : Risky Technology, Culture and Deviance at NASA, Chicago, IL : University of Chicago Press.
  • Weick, K.E. 1993 The Collapse of Sensemaking in Organizations : The Mann Gulch Disaster, Administrative Science Quarterly, 38 : 4, 628-652.
  • Yin, R.K. 2002 Case Study Research : Design and Methods, 3e édition, Thousand Oaks, CA : Sage.
  • Yin, R.K., et K.A. Heald 2002 Using the Case Survey Method to Analyze Policy Studies, Administrative Science Quarterly, 20 : 3, 371-381.

Notes

  • [1]
    Ces données sont accessibles à : http://www.anderson.ucla.edu/faculty/dick. rumelt/rumelt_ssdata.htm
bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Avec le soutien de

Retrouvez Cairn.info sur

18.97.14.83

Accès institutions

Rechercher

Toutes les institutions