1Plusieurs sous-disciplines des sciences de gestion, à l’image de l’organizational behavior (Meyer, Stanley, et Vandenberg, 2013) et du marketing (Andrews et al., 2002), optent désormais pour une approche centrée sur les personnes plutôt que sur les variables. La première approche tente d’identifier des sous-groupes homogènes, appelés profils ou classes selon les algorithmes utilisés, pour mieux cerner l’impact de l’appartenance à l’un d’entre eux sur un concept étudié. La seconde estime quant à elle un effet moyen en considérant l’échantillon comme un tout indistinct. Cet intérêt pour l’approche centrée sur les personnes souffre toutefois d’une difficulté à arrêter le nombre de profils grâce aux méthodes traditionnelles de classification. Le plus souvent, le choix résulte d’une simple lecture graphique telle que celle opérée sur un dendrogramme. Une part d’arbitraire subsiste à cette étape décisive des protocoles de recherche. Cette limite est gênante dans la mesure où Wang et Hanges (2011) ont pu montrer que l’intensité ou la significativité des liens peuvent fortement varier selon les segments de population au sein d’un même échantillon. La capacité à dépasser cette limite constitue un enjeu à la fois de connaissance et de décision pour les sciences de gestion. Même si les deux approches semblent plus complémentaires que concurrentes (Meyer, et al., 2013), celle centrée sur les personnes fournit des résultats plus précis. Elle tient compte pour cela de la variété des comportements au regard du concept étudié. Ainsi, Morin, Morizot, Boudrias et Madore, (2011) par exemple observent des différences significatives de performance intra rôle, de comportements citoyens et d’intention de départ entre les profils de salariés identifiés. Dans le domaine du marketing, Andrews et al (2002) montrent des différences importantes au niveau de la préférence des marques ou de la sensibilité au marketing mix au sein même des panels de consommateurs. De ce fait, une erreur sur le nombre et la composition des profils peut aboutir à des conclusions théoriques erronées et à des préconisations managériales inopportunes. Elle peut inciter par exemple à développer des pratiques de GRH inadaptées, à opérer une erreur de positionnement sur le marché, à proposer une politique de communication ou de prix inaudible, etc. Le cas se présente lorsque l’algorithme de classification utilisé incite à retenir un ou des profils inexistants dans la réalité ou sans signification théorique. Cette menace existe également quand certains regroupements ne sont malencontreusement pas détectés au sein de l’échantillon. Ces risques sont manifestes avec les méthodes traditionnelles de classification telles que le split par la moyenne, les méthodes hiérarchiques et non hiérarchiques (Speece, 1994). Nous montrons dans cet article la supériorité d’une génération récente de méthode de classification, en l’occurrence les modèles mixtes (Muthén, 2002). Encore peu répandue en France, cette technique de création de profils est de plus en plus utilisée dans la recherche nord-américaine contemporaine (Wang et Hanges, 2011). Cette diffusion des Latent Profil Analysis (LPA) et des Factor Mixture Analysis (FMA) s’explique notamment par la multiplicité des indicateurs quantitatifs fournis pour définir rationnellement le nombre de profils. Ces algorithmes présentent également la particularité de pouvoir classer différemment deux personnes révélant des scores identiques obtenus à partir de compositions différentes. Ainsi, deux salariés totalisant dix points ne seront pas rangés dans le même profil quand ils n’auront pas exprimé les mêmes réponses au regard des deux dimensions constitutives d’un concept étudié : 8+2 et 2+8 par exemple. Après avoir proposé une présentation critique des différentes méthodes de classification disponibles, nous illustrerons notre démonstration à l’aide d’un concept tiré du champ de l’organizational behavior : le bien-être au travail. Les résultats obtenus grâce aux différents algorithmes seront présentés puis discutés.
1 – Les méthodes de classification disponibles
2Traditionnellement, les chercheurs ou les praticiens qui souhaitaient créer des profils à partir de variables regroupées dans un questionnaire pouvaient y parvenir grâce à trois grands types de méthodes : les classifications simples comme le split par la moyenne, la médiane ou le centre de d’échelle, les classifications non hiérarchiques comme les centres mobiles ou les nuées dynamiques, et enfin les classifications hiérarchiques de type ascendante ou descendante. Depuis peu, une seconde génération d’outils statistiques est disponible : il s’agit des modèles mixtes. Les principes respectifs de ces différentes méthodes sont détaillés dans les sections qui suivent.
1.1 – Les méthodes simples de classification
3Ces méthodes sont les plus rapides à mettre en œuvre. Elles ne nécessitent pas de compétences statistiques particulières. Il suffit de choisir un ou plusieurs points de coupure au sein de la population étudiée. Sur ces bases, les individus compris entre deux bornes seront considérés comme faisant partie du même profil. Ils sont choisis par le chercheur ou le praticien. Les points sélectionnés sont le plus souvent la moyenne des scores exprimés, la médiane ou encore le centre d’échelle. Rien ne justifie au demeurant l’utilisation de l’un plutôt qu’un des deux autres. En ce sens, cette solution ne peut pas en réalité être considérée comme une véritable méthode de création de profils. Elle possède en effet de trop nombreux inconvénients. Tout d’abord, le choix du point de coupure est beaucoup trop arbitraire puisqu’il ne repose sur aucun critère fiable de sélection. De plus, ces solutions interdisent au chercheur de travailler sur les items du questionnaire car le nombre de profils obtenus suit une loi du type 2n, (où n= nombre de variables). Il en résulte par exemple mécaniquement trente-deux profils différents lorsque que la recherche traite un concept à cinq dimensions. Le chercheur ou le praticien est donc contraint de travailler directement sur les scores totaux obtenus ce qui provoque une importante perte d’information. Enfin, le cas des individus proches des points de coupure reste très problématique. Pour une échelle de mesure allant de 1 à 100 dont le point de coupure aurait été fixé à 50, un individu ayant obtenu 49 sera considéré comme plus proche d’un autre ayant obtenu 3 que de celui ayant obtenu 51. Ce classement est évidemment peu fidèle à la réalité. Les méthodes non hiérarchiques sont plus précises. Elles ne sont toutefois pas exemptes elles non plus de critiques.
1.2 – Les méthodes de classification non hiérarchiques
4La méthode des nuées dynamiques permet de construire par itération, à partir d’une famille absolument quelconque de noyaux, une partition en k classes. Un noyau se définit comme un ensemble de p points proches les uns des autres. Chacune des classes comprend les éléments qui sont les plus proches d’un des noyaux. A partir de cette partition, il est possible de définir une nouvelle famille de noyaux en associant à chaque classe de la partition l’ensemble de p points qui en est le plus proche. Cette construction itérative revêt également une part d’arbitraire puisque la partition obtenue dépend du choix initial des noyaux. Pour compenser dans une certaine mesure ce défaut, il est recommandé d’appliquer la méthode plusieurs fois de suite, en partant à chaque fois d’une famille différente de noyaux tirés au hasard. La méthode permet alors d’obtenir plusieurs partitions en k classes. Ainsi, un même élément peut avoir été classé différemment d’une partition à l’autre. On appelle « forme forte » un ensemble d’éléments classés ensemble à plusieurs reprises (Diday, 1971). Ils auront résisté aux aléas dus au tirage aléatoire et révélé en cela leur homogénéité. Cette méthode non hiérarchique présente l’avantage non négligeable de pouvoir classer un grand nombre de données. Cependant, elle souffre d’un inconvénient majeur : le chercheur doit une nouvelle fois fixer a priori le nombre de classes. Il est communément admis par la communauté académique que l’effectif au sein d’une classe doit au bout du compte être supérieur ou égal à dix pour cent de l’échantillon global. Ce critère laisse finalement une grande marge de manœuvre. Le risque de ne pas choisir le bon nombre de classes reste très élevé. La méthode des centres mobiles constitue une variante de la méthode des nuées dynamiques. Ses avantages et ses inconvénients sont sensiblement les mêmes. La troisième alternative est celle des classifications hiérarchiques.
1.3 – Les méthodes de classification hiérarchique et les méthodes mêlées
5Il existe deux grandes méthodes de classification hiérarchique à la disposition des chercheurs en sciences de gestion : l’ascendante et la descendante. La première construit une hiérarchie entière qui prend progressivement la forme d’un arbre ou d’un dendrogramme en respectant un ordre ascendant. L’analyse débute en considérant chaque individu comme une classe et tente de fusionner ensuite deux ou plusieurs classes de manière appropriée pour former une nouvelle classe (Boullé et al., 2012). Des petites classes ne comprenant que des individus très semblables sont constituées, puis des classes de moins en moins homogènes sont construites jusqu’à obtenir la classe tout entière, c’est-à-dire l’échantillon total. L’arbre qui en résulte peut potentiellement être coupé à différents niveaux. Il résulte de ce choix un nombre de classes plus ou moins important. Si le principe général reste identique, le processus est toutefois inversé lors d’une classification descendante hiérarchique : une seule classe regroupant tous les individus est divisée pas à pas en classes de moindres effectifs jusqu’à l’obtention d’une classe par individu ou bien du nombre de classes souhaité a priori. L’avantage de ces méthodes hiérarchiques par rapport aux nuées dynamiques est de fournir au chercheur un outil plus précis sous la forme d’un dendrogramme lisible (Lerman, 2009). Cependant, la décision demeure en grande partie arbitraire. Le chercheur doit simplement veiller à retenir un nombre de classes qui fait sens avec ses données. Il n’en reste pas moins que le risque de passer à côté d’une classe intéressante est réel, a fortiori quand l’échantillon est volumineux ou lorsque le concept étudié est encore peu connu. Pour contourner au moins partiellement cette difficulté, en particulier lorsque l’échantillon est important, il est recommandé de réaliser une analyse combinée mêlant à la fois la méthode des nuées dynamiques et l’ascendante hiérarchique. Un grand nombre de classes, en général 1/10 de la population totale de l’échantillon, est dans un premier temps fixé pour calculer une première nuée dynamique. Afin de déterminer le nombre final de classes, une ascendante hiérarchique est ensuite calculée sur les coordonnées des classes obtenues. Le dendrogramme est alors plus aisément interprétable que celui qui aurait été directement obtenu sur l’échantillon total. Une nouvelle classification en nuées dynamiques est alors calculée à partir des mêmes coordonnées et du nombre final de classes arrêté au terme de l’étape précédente. Il s’agit alors de déterminer les valeurs des centres de classes. Le processus est terminé lorsque le chercheur réalise une dernière nuée dynamique sur l’échantillon d’origine en utilisant le nombre final de classes et les coordonnées de leurs centres (Biétry et Laroche, 2011). Ces itérations augmentent significativement le nombre d’individus bien classés par rapport à une nuée dynamique unique. Toutefois, le résultat final est une nouvelle fois grandement tributaire de la lecture du dendrogramme à l’issue de la seconde étape. En dépit de la multitude de méthodes traditionnelles de classification disponibles, aucune d’entre elles ne peut finalement garantir le « bon » nombre de classes. Aucune ne peut non plus assurer la fidélité de la répartition des individus à la réalité empirique. Le manque d’indicateur fiable oblige le chercheur à prendre partie à un moment ou à un autre de ces traitements statistiques quand bien même plusieurs méthodes sont mêlées. Les modèles mixtes de dernière génération règlent ces problèmes.
1.4 – Les méthodes avancées de classification : les modèles mixtes
6Grâce aux performances des nouveaux processeurs, des algorithmes de plus en plus complexes peuvent être exploités (Muthen et Muthen, 2007). Il en va ainsi des LPA. Cette solution est basée sur la spécification de modèles concurrents qui peuvent être comparés entre eux à partir de différents indices d’ajustements. Elle permet en outre d’introduire simultanément des variables continues, ordinales et catégoriques dans le même modèle, en tant que prédicteurs ou covariants le cas échéant. Ces prédicteurs/covariants ne sont pas utilisés lors de la définition des profils. Leur introduction par le biais d’une régression logistique multinomial a pour fonction de limiter l’erreur de type 1, c’est-à-dire de minimiser la probabilité de rejeter injustement H0. Ils réduisent systématiquement les biais d’estimation notamment au niveau des relations entre prédicteurs/covariants et profils (Lubke et Muthen, 2007). Ces LPA (Latent Profil Analysis) reposent a priori sur le principe d’indépendance entre-elles des variables observées une fois la variable catégorielle introduite dans le modèle. Une variable catégorielle pouvant être définite comme une variable pour laquelle la valeur mesurée pour chaque individu ne représente pas une quantité. Les valeurs qu’elle peut prendre sont appelées catégories, profils, classes ou encore niveaux. En cas de corrélations résiduelles, l’utilisation d’une telle analyse peut toutefois être justifiée : les résultats obtenus dans un tel cas de figure fournissent un premier résultat indicatif et exploratoire. Ils ne peuvent être validés en l’état dans la mesure où le non-respect de la condition d’indépendance peut faire émerger de faux profils. Le recours aux FMA (Factor Mixture Analysis) est préféré dans ces circonstances. Les FMA permettent de relier les variables initiales à une variable latente catégorielle (le modèle LPA) et à une variable latente continue. Même si les variables à l’origine de la classification restent corrélées en fin de processus et qu’une part de variance subsiste au sein des profils, les FMA permettront tout de même de déterminer la solution la plus parcimonieuse en ce qui concerne le nombre de profils. Ce nombre est arrêté grâce à une série d’indicateurs statistiques : l’Akaïke Information Criterion (AIC) (Akaike, 1987), le Bayesian Information Criterion (BIC) (Schwartz, 1978), le sample-size Adjusted BIC (SSABIC) (Sclove, 1987), le ratio Lo-Mendell-Rubin likelihood (LMR) (Lo, Mendel, & Rubin, 2001), le Bootstrap Likelihood Ratio Test (BLRT) (McLachlan et Peel, 2000) et l’entropie. Des critères de rejet du modèle, tels que la présence de variance négative, doivent également être vérifiés. L’ensemble de ces résultats doit faire sens avec la théorie pour être définitivement accepté. Cette assise théorique évite d’aboutir à des modèles résultant de la chance ou sans signification. Dans le détail, l’AIC est une mesure du bon ajustement d’un modèle statistique. Il permet d’obtenir une mesure relative de l’information perdue lorsqu’un modèle est utilisé pour représenter la réalité. Il n’existe pas de valeur seuil de l’AIC pour la conservation ou le rejet d’un modèle. Il s’agit simplement d’un indice de comparaison. En pratique, la plus faible valeur de l’AIC est recherchée. Le BIC est quant à lui une approximation du calcul de la vraisemblance des données conditionnellement au modèle fixé. Il utilise donc le principe du maximum de vraisemblance et pénalise les modèles comportant trop de variables. Là aussi, la plus faible valeur du BIC est communément utilisée pour sélectionner le meilleur des modèles testés. Une différence de 10 unités de BIC constitue un facteur de préférence d’un modèle par rapport à un autre. Elle implique que les données du modèle ayant le plus faible BIC sont déjà 150 fois plus conformes que celui pris en comparaison. Le troisième indicateur est le SSABIC. Il constitue un aménagement du précédent. Il pénalise encore d’avantage les modèles dont le nombre de paramètres est élevé. Une nouvelle fois, la valeur la plus faible du SSABIC est recherchée. Nylund et ses coauteurs (2007) montrent que le BIC et le SSABIC sont des indicateurs bien supérieurs à l’AIC pour choisir un modèle parcimonieux. L’AIC devrait tout de même faire l’objet d’une vérification systématique par principe de précaution. Le LMR quantifie ensuite la vraisemblance qu’auraient les données d’un modèle composé d’une classe de moins (Uher et al., 2010). Ainsi, une valeur de p supérieure à 0,05 obtenue à ce test signifie que l’ajout d’une classe supplémentaire dans le modèle n’apporte pas d’information supplémentaire. Le BLRT a une fonction similaire à celle du LMR. Le BLRT est toutefois complémentaire dans la mesure où il utilise une technique de ré-échantillonnage pour effectuer la comparaison. La valeur seuil de p communément admise est également de 0,05. Enfin, l’entropie est un indicateur de la qualité d’affectation des individus aux profils. Sa valeur se situe entre 0 et 1. La valeur nulle correspond à une classification aléatoire tandis que la valeur 1 révèle une classification parfaite. Le tableau 1 résume les seuils communément utilisés pour les différents indices d’ajustement. Ces méthodes de classification par LPA/FMA possèdent ainsi en théorie de nombreux avantages par rapport aux méthodes traditionnelles de classification. Nous le montrerons empiriquement en prenant l’exemple d’un concept multidimensionnel qui se prête par définition à l’élaboration de profils : le bien-être au travail.
Indices d’ajustements
Indices d’ajustements
2 – Méthodologie
7Le bien-être est un concept difficile à cerner tant sa définition a été sujette à des dérives. Il se distingue pourtant de termes voisins tels que la qualité de vie (Bowling, 1991), le bonheur (McGregor et Little, 1998), la satisfaction dans la vie (Diener, 1984) ou bien encore le stress au travail (Voyer et Boyer, 2001). Deux courants théoriques – hédonique et eudémonique – et deux approches méthodologiques – déductive et inductive - permettent de délimiter les contours du bien-être au travail (Dagenais-Desmarais et Savoie, 2011). Par rapport au bien-être en général (Ryff et Keyes, 1995), il révèle des particularités que les échelles de mesure disponibles ont tentées de traduire sans y parvenir totalement. Récemment, Biétry et Creusier (2013) ont enrichi cette littérature académique en proposant une analyse critique des échelles disponibles. Ces dernières ont d’après eux une propension à utiliser des indicateurs secondaires qui pénalise la validité interne du construit. De plus, elles ne sont pas exclusivement centrées sur la sphère du travail. Enfin, elles souffrent d’un défaut d’enracinement dans les expériences vécues par les salariés. La nouvelle échelle de mesure (EPBET) qu’ils proposent tient compte de ces critiques. Elle présente des qualités de fiabilité et de validité statistiques. Elle s’articule autour de quatre rapports qui constituent autant de dimensions : un rapport positif aux autres, à soi, aux temps et à l’environnement physique de travail. Elle tente de plus de réconcilier les approches hédonique et eudémonique qui avaient déjà été qualifiées de complémentaires Keyes et ses coauteurs dès 2002. Afin d’éviter le décalage culturel entre l’origine nationale de l’échelle et celle de l’échantillon d’utilisation (Diener, 2000), cette échelle a été préférée aux autres pour procéder à notre démonstration. Les prédicteurs/ covariants, utilisés lors de la FMA avec prédicteurs/covariants, sont l’âge, le genre et l’ancienneté dans l’entreprise car Crawford et Henry (2004), Keyes et ses coauteurs (2002), et Warr (1990) ont montré leur association significative au bien-être au travail.
8Pour la collecte des données, notre base ne contient pas de valeurs manquantes. Nous n’avons donc pas eu besoin de les combler. Si tel n’avait pas été le cas, cette opération aurait pu être réalisée grâce à la commande « missing are » du logiciel Mplus qui permet aux chercheurs de remplacer les valeurs manquantes par celles de leurs choix.
Caractéristiques de l’échantillon (n=865)
Caractéristiques de l’échantillon (n=865)
9Pour le mode d’analyse des données, une méthode de classification simple par la moyenne, une méthode de classification hiérarchique ascendante, une méthode de classification mêlant nuée dynamique et ascendante hiérarchique et, enfin, les LPA/FMA sont tour à tour réalisées sur cet échantillon pour présenter leurs avantages respectifs. Les méthodes traditionnelles ayant fait l’objet de multiples utilisations, les résultats obtenus par nos soins sont présentés brièvement dans un souci de clarté pédagogique. La démarche suivie pour définir le nombre de profils de bien-être au travail par LPA/FMA respecte trois temps selon les préconisations de Morin et al (2011) : l’analyse par LPA, l’analyse par FMA et enfin l’analyse par FMA avec prédicteurs/covariants. L’ensemble des traitements statistiques est réalisé grâce au logiciel Mplus. La première étape est une LPA à partir des douze items constitutifs de l’échelle de bien-être. La condition d’indépendance après introduction de la variable catégorielle ne pouvant pas être garantie, ces premiers résultats servent uniquement de base de comparaison pour la poursuite de l’analyse. Le programme utilisé est reporté en annexe 1. Il utilise l’algorithme expectation-maximization du LMR (robust maximum likelihood estimator) pour estimer les paramètres du « mixture model ». Il est particulièrement important d’éviter de converger vers une solution locale, c’est-à-dire une fausse ressemblance maximum. Ce problème survient lorsque les valeurs de départ sont inadéquates. Il est donc recommandé d’estimer le modèle avec des jeux de données de départ définis au hasard. Dans notre cas, 500 jeux sont définis de manière aléatoire pour chaque modèle. Les 40 meilleurs sont conservés pour l’optimisation finale. Tous les modèles rapportés convergent vers une solution répliquée. Ils peuvent légitimement être considérés comme une représentation de la vraie ressemblance maximum. Pour s’assurer qu’il ne repose pas sur un maximum local, le modèle finalement retenu est répliqué sur 2000 jeux de valeurs de départ définis au hasard. En plus des critères de décision présentés précédemment, le nombre de sujets par profil est étudié ainsi que les possibilités d’interprétation de ces profils. Cette première étape des traitements permet d’obtenir une première indication du nombre de profils à retenir au terme de la FMA qui est réalisée dans un second temps. Le programme de FMA utilisé sur le même jeu de données est présenté en annexe 1. Ce test est réalisé dans les mêmes conditions que la LPA avec 500 jeux de données définis au hasard pour chaque modèle et 2000 jeux pour la réplication du modèle final. Les mêmes indicateurs sont mobilisés. Ce test est particulièrement bien adapté pour cette étude. Il affine les résultats de la LPA en ne laissant le choix qu’entre deux nombres de profils possibles. Enfin, la troisième étape consiste à ajouter des prédicteurs/covariants dans l’analyse par FMA (annexe 1). Elle confirme la stabilité des résultats statistiques des étapes précédentes. Elle permet de sélectionner le nombre de profils définitifs en comparant une nouvelle fois les différents indices retenus. Pour ce dernier test, l’indice AIC et l’ABIC sont ajoutés aux critères de sélection afin de renforcer la qualité de la décision finale. Le nombre d’individus par profils fait une nouvelle fois l’objet d’une attention particulière puisque ce dernier doit rester quasiment identique entre une FMA sans prédicteurs/covariants et une FMA avec prédicteur/covariants. Le nombre de profils ayant été arrêté, le tableau des probabilités croisées d’appartenance à un profil est établi. Il permet notamment de connaitre les probabilités que possède un individu d’être classé dans les différents profils. La probabilité d’appartenance d’un individu doit être très élevée pour un profil et très faible pour les autres. Si tel est le cas, il est alors possible d’affirmer que les profils sont bien distincts les uns des autres et l’étude de leurs caractéristiques respectives peut démarrer.
3 – Résultats comparés des différentes méthodes
10L’échelle a fait l’objet d’une validation par analyse en composante principale et par équations structurelles. Les principaux indicateurs de fiabilité sont satisfaisants : les loadings sont tous supérieurs à 0,75 ; les alphas de Chronbach sont compris entre 0,74 et 0,88 ; les indices GFI, CFI et RMSEA sont respectivement de 0,966, 0,970 et 0,055. Le tableau 3 révèle des corrélations significatives faibles à modérées entre les quatre dimensions du bien-être au travail.
Statistiques descriptives et inter corrélations(*)
Statistiques descriptives et inter corrélations(*)
(*)p < 0,05 Les alphas de Cronbach figurent entre parenthèses sur la diagonale3.1 – Les résultats des méthodes traditionnelles de classification
11L’EPBET étant composée de 4 dimensions, le split par la moyenne donne naissance à 24 profils soit 16 au total. Leurs effectifs sont présentés dans le tableau 4 :
Effectifs respectifs des 16 profils créés par le split par la moyenne
Effectifs respectifs des 16 profils créés par le split par la moyenne
12Cette première classification conduit à créer certains profils à très faibles effectifs. Par exemple les profils 4 et 13 sont composés respectivement de 26 et 24 individus. Ils doivent par conséquent être soit fusionnés avec d’autres profils soit éliminés puisqu’ils ne dépassent même pas le seuil de la loi des grands nombres. Pour leur part, la lecture des dendrogrammes obtenus par classification ascendante hiérarchique et par méthode mêlée invite dans les deux cas à retenir des points de coupure à trois ou à quatre profils (annexe 2). Nous avons tranché pour quatre profils à chaque fois. Les effectifs obtenus respectent cette fois le seuil minimum requis :
Effectifs des profils obtenus par ascendance hiérarchique et mélange des méthodes
Effectifs des profils obtenus par ascendance hiérarchique et mélange des méthodes
13A l’évidence, la composition des profils diffère selon la méthode utilisée puisque les effectifs varient. Certains individus changent donc d’affectation à l’occasion du changement de méthode de classification. Les modèles mixtes font apparaître des conclusions différentes et plus stables.
3.2 – Les résultats par LPA/FMA
14Le nombre de profils de bien-être au travail pourrait être de 4 ou 5 si l’on en juge par la LPA. A ce moment, l’indice BIC (19321) cesse de diminuer. Il recommence à augmenter à partir de 6 classes (19325). Le test LMR va également dans ce sens puisqu’il devient non significatif à partir de 5 classes (0,429). Les découpages en 4 et 5 profils ne montrent donc pas de différences nettes.
Le nombre de profils indiqué par la LPA
Le nombre de profils indiqué par la LPA
15L’utilisation des LPA doit être la « norme » en matière de classification par « mixture model » car elles sont statistiquement plus puissantes que les FMA. S’il s’en contente, le chercheur considère toutefois que la création de profils suffit à expliquer l’ensemble de la variance intra profil. Il considère également qu’il ne subsiste aucune corrélation entre les variables une fois la variable catégorielle incluse dans le modèle. Ainsi, les auteurs travaillant à la création de profils d’implication organisationnelle (Gellatly et al., 2006 ; Meyer et al., 2012) utilisent uniquement les LPA. Dans leurs études, le fait que les trois dimensions de ce concept (Meyer et Allen, 1991) soient corrélées entre elles avant l’inclusion de la variable catégorielle ne pose pas de problème pour deux raisons au moins : ces liens disparaissent en fin de processus ; il n’existe plus de variance au sein des profils créés. En d’autres termes, ces auteurs considèrent que tous les individus au sein d’un profil sont identiques.
Le nombre de profils indiqué par la FMA
Le nombre de profils indiqué par la FMA
16Cependant, l’utilisation des FMA doit être préférée à celle des LPA dans au moins deux cas particuliers : lorsque l’étude est inductive c’est-à-dire quand absolument rien ne permet d’anticiper le nombre de profils, lorsqu’il existe des raisons théoriques fortes montrant qu’une part de variance subsiste au sein des profils créés par LPA. En dehors de ces deux cas particuliers, la méthode LPA doit être utilisée. Le caractère encore exploratoire du travail de création de profils de bien-être au travail relève de ces cas particuliers. De ce fait, il s’avérerait peu opportun de poursuivre l’étude sur la base d’une LPA en ajoutant simplement des prédicteurs pour s’assurer de la stabilité des premiers résultats. Une FMA a donc été calculée dans le but d’éviter l’apparition de « faux profils » qui seraient uniquement le fruit d’un découpage trop fin des LPA. Le tableau 7 présente les résultats de la FMA. La solution à 5 profils semble être la plus robuste. L’indice BIC (19415) est le plus faible pour ce nombre. A partir de 6, le test LMR (0,106) devient non significatif : la distinction d’un sixième profil n’apporterait pas d’information supplémentaire. La part d’arbitraire dans la décision est à ce stade considérablement réduite par rapport à celle requise par les méthodes traditionnelles. Elle ne disparait pas toujours totalement pour autant. Ainsi, les valeurs de certains indicateurs sont assez proches les unes des autres dans notre exemple. Seule la multiplicité des indices d’ajustement permet finalement au chercheur de trancher entre les modèles mis en concurrence. Ce processus de décision s’apparente à celui des modèles d’équations structurelles (MES). Il propose lui aussi de raisonner à partir d’une série d’indices d’ajustement plutôt que d’un seul indicateur. Il s’agit dans un cas comme dans l’autre d’une aide à la décision plutôt que d’un choix automatisé : le chercheur n’est pas dépossédé de sa fonction de choix. Les données sont pour cela préparées au mieux par l’algorithme. Elles sont validées pour aider le chercheur à sélectionner le modèle le plus robuste dans les meilleures conditions. Il reste au bout du compte que le nombre de profils retenus doit révéler un sens théorique et être cohérent avec la réalité comme c’est le cas pour les modèles issus des MES. Dans notre illustration, la LPA et la FMA fournissent des résultats proches : 4 à 5 profils dans le premier cas, 5 à 6 dans le second. La cohérence de ces tests est donc bonne. A ce stade, il serait logique de choisir la solution à 5 profils plus parcimonieuse. Un doute subsiste toutefois car l’entropie de la solution à 6 profils est supérieure à celle du modèle à 5. Pour le lever, une dernière analyse par FMA comparant ces deux options est réalisée en y ajoutant les prédicteurs/covariants : le genre, l’âge et l’ancienneté dans l’entreprise. Les résultats sont présentés dans le tableau ci-dessous.
Comparaison par FMA avec prédicteurs entre 5 et 6 classes
Comparaison par FMA avec prédicteurs entre 5 et 6 classes
17L’inclusion des prédicteurs ne change pas les caractéristiques des profils. Leur stabilité est confirmée. En revanche, la variation des indices d’ajustement permet de montrer que le modèle à 5 profils est nettement supérieur au modèle à 6. En effet, l’AIC, le BIC et l’ABIC sont bien meilleurs dans le premier. Les tests LMR deviennent fortement non significatifs à partir de 6 profils. Le test BLTR est à peu près équivalent pour les deux modèles. Enfin, seule l’entropie est un peu plus élevée pour le modèle à 6 profils (0,782/0,757). Ce résultat est logique puisqu’il traduit une plus forte distinction de ces six profils par rapport à ceux du modèle à 5 profils. La variation reste toutefois faible.
18Le nombre de salariés dans chaque profil varie très peu avec l’ajout des prédicteurs/covariants dans le modèle à 5 profils : l’effectif du profil 1 passe de 72 salariés à 63, le profil 2 de 187 à 198, le profil 3 de 223 à 221, le profil 4 de 162 à 163 et enfin le profil 5 de 221 à 220. Ce résultat démontre une nouvelle fois la bonne stabilité des résultats. Le tableau 9 indique la probabilité de bonne affectation des individus dans les profils auxquels ils sont sensés appartenir.
Probabilité d’appartenance à un profil
Probabilité d’appartenance à un profil
19Ces résultats montrent que les salariés ont une très forte probabilité d’être classés dans le bon profil grâce à cette méthode. Les scores apparaissant sur la diagonale se situent en effet entre 0,798 et 0,920. Autrement dit, le degré de confiance que l’on peut accorder, par exemple, au classement des salariés dans le profil 4 est de 92 %. Ils n’auraient que 8 % de chance d’appartenir au profil 5 et aucune chance d’appartenir aux profils 1, 2 ou 3. Ces résultats sont très satisfaisants : ils montrent que les 5 profils retenus sont suffisamment distincts les uns des autres pour que les individus aient toutes les chances d’être répartis dans le bon profil. Le tableau suivant présente les caractéristiques principales de ces profils.
Caractéristiques des profils mis au jour par LPA/FMA
Caractéristiques des profils mis au jour par LPA/FMA
« + » : supérieur à la moyenne de l’échantillon ; « 0 » : proche de la moyenne ;« - » : inférieur à la moyenne
20Le profil 1 affiche des scores significativement supérieurs à la moyenne de l’échantillon pour les quatre dimensions. Il regroupe 8,3 % des salariés. 56 % sont des femmes. L’âge moyen de ce groupe est 39,2 ans. Le profil numéro 2 est caractérisé par des salariés ayant un niveau de bien-être au travail proche de la moyenne au regard de l’environnement de travail, du management et des temps. Ils se distinguent en revanche significativement au niveau des relations avec les collègues. Ce profil décrit 21,6 % des salariés. Il est composé d’autant d’hommes que de femmes. L’âge moyen est de 42,7 ans. Le profil 3 est assez proche du 1 puisque les salariés qui le composent expriment un niveau élevé de bien-être au travail sur trois dimensions. Ils entretiennent toutefois un rapport difficile avec le temps. Ce profil représente 25,7 % des salariés. 55 % sont des femmes. L’âge moyen y est de 40,8 ans. Le profil 4 est formé par les salariés qui ressentent les plus faibles niveaux de bien-être au travail. Les quatre dimensions constitutives sont concernées. Ce profil est celui de 18,7 % des salariés. Il est composé d’autant d’hommes que de femmes. Leur âge moyen s’élève à 43,5 ans. Enfin, le profil 5 représente les salariés qui affichent une divergence entre les dimensions constitutives du bien-être au travail. Leurs niveaux de bien-être sont dans la moyenne de l’échantillon en ce qui concerne le rapport à l’environnement et aux temps. Ils estiment entretenir d’excellentes relations avec leurs collègues et de mauvaises avec leur manager. Ce profil est celui de 25,5 % des salariés. Il est composé à peu de chose près d’autant d’hommes que de femmes. L’âge moyen est cette fois de 41,6 ans.
4 – Discussion
21L’objet de cet article était de comparer les mérites respectifs des différentes méthodes de classification qui s’offrent aux chercheurs en sciences de gestion pour finalement démontrer la supériorité des modèles mixtes. Le nombre de profils de bien-être au travail ayant été déterminé par chacune d’entre-elles, il est à présent possible de comparer leurs résultats respectifs.
Résumé des résultats des différentes méthodes de classification mobilisées
Résumé des résultats des différentes méthodes de classification mobilisées
22Ce tableau montre la progression des résultats obtenus au fur et mesure de la complexification de la méthode utilisée. Le split par la moyenne aboutit à distinguer 16 profils. Leurs effectifs respectifs sont très différents les uns des autres. Plusieurs profils sont constitués de moins de trente individus ce qui obligerait ensuite à utiliser des tests statistiques non paramétriques. Les résultats ne pourraient donc pas être généralisés à l’ensemble de la population. Cette méthode présente l’avantage d’être rapide et simple à utiliser. Elle peut être réalisée à la main sans autre compétence que le maniement d’un simple tableur. Pour autant, les résultats fournis sont inexploitables en l’état car rien ne permet d’infirmer que certains profils sont artificiels, c’est-à-dire sans réalité empirique. Elle présente le risque de conduire à des interprétations théoriques erronées. Il en va de même du split par la médiane ou le centre d’échelle. Ces solutions n’ont pas été mobilisées dans cet article car elles répondent à un principe de segmentation et de classement identique. Elles ne modifient pas le nombre de profils. Seuls les effectifs sont susceptibles de varier. Le chercheur qui souhaite gagner en précision peut opter pour une méthode plus sophistiquée telle qu’une classification hiérarchique seule ou mêlée à une non hiérarchique. Dans notre application, il en résulte dans les deux cas quatre profils. Une différence substantielle apparaît par contre au niveau de la répartition des individus au sein de chaque profil. De fortes variations sont enregistrées : ainsi, le profil 2 est composé de 92 salariés après une ascendante hiérarchique seule tandis que son effectif est de 223 après son utilisation combinée avec une nuée dynamique. A nombre de profils constant, l’affectation d’un individu est donc très sensible au choix de la méthode de classification retenue par le chercheur. Du fait de cette combinaison de méthodes, ce dernier résultat est certainement plus précis que le précédent. Par rapport au split par la moyenne, la lecture du dendrogramme apporte une garantie supplémentaire. Ces classifications seules ou combinées présentent également l’avantage de pouvoir être opérées à partir de logiciels désormais largement diffusés en France tels que SPSS. Elles souffrent toutefois de deux défauts rédhibitoires : le nombre de profils doit être arrêté de manière arbitraire par le chercheur à un moment où à un autre de son analyse. Dans le cas du bien-être au travail, il semble sous-estimé du fait d’une segmentation trop grossière induite par la simple interprétation du dendrogramme. Une perte d’information est donc consentie. Elle nuira à la qualité des conclusions ultérieures lorsque le chercheur tentera d’étudier les liens qui associent les prédicteurs et les conséquences des profils. L’apport conceptuel peut s’en trouver affecté et, in fine, la pertinence des préconisations d’actions relatives aux politiques de bien-être à mettre en place dans les entreprises. Ces limites incitent à retenir un modèle mixte tel que les LPA/FMA. La solution proposée ici est composée de cinq profils. Elle affine la répartition des individus sans pour autant aboutir à des effectifs trop réduits. Le découpage de l’échantillon est ainsi plus fin. Il autorise des investigations ultérieures plus précises du concept qui aura servi à la classification. Les LPA/FMA concourent ainsi à éviter les erreurs d’interprétation théorique. Dans notre exemple, le profil supplémentaire identifié est constitué des salariés qui présentent un niveau particulièrement élevé de bien-être au travail sur toutes les dimensions de l’échelle. Ces personnes sont mélangées aux autres lorsqu’une technique traditionnelle est utilisée. Ce résultat est pourtant capital dans l’étude du bien-être puisqu’il permet d’isoler ce segment de population et donc de sonder en profondeur ses particularités. Il peut aider à comprendre comment le bien-être est généré par des pratiques managériales. Il facilite l’identification de ses éventuelles conséquences sur les comportements et les attitudes au travail. Nous entretenons l’espoir, qu’en plus de ces conclusions de fond, cet article servira d’incitation à utiliser les modèles mixtes mais aussi de guide d’appoint pour tous ceux qui souhaitent s’y initier. Cette incitation serait complète si notre démonstration ne souffrait pas de limites. Elles tiennent principalement à l’échantillonnage et au choix des méthodes mises en concurrence. Malgré l’utilisation d’un échantillon volumineux (n=865), la représentativité statistique de la population ne peut être garantie en effet. Il n’est donc pas possible d’écarter définitivement la possibilité d’une dépendance même partielle des résultats présentés aux personnes interviewés. Même si le split par la moyenne, les nuées dynamiques et les ascendantes hiérarchiques sont les plus utilisées dans les sciences de gestion, elles ne constituent pas ensemble une liste parfaitement exhaustive des méthodes de classification existantes. D’autres auraient peut-être pu fournir des résultats différents. De nouvelles comparaisons auraient donc probablement pu compléter nos conclusions. Il n’est pas anodin non plus de rappeler que les seuils de recevabilité des modèles mis en concurrence ne sont finalement que des conventions. Enfin, le chercheur intéressé doit avoir en tête que le raffinement des conclusions obtenues à l’aide des modèles mixtes est conquis au prix d’un fort cout d’entrée du fait du manque de convivialité du logiciel MPlus.
Annexe 1
Dendrogramme de la méthode mêlée
Bibliographie
Références
- Andrews, R., Ainslie A., Currim I. (2002). An Empirical Comparison of Logit Choice Models with Discrete vs. Continuous Representations of Heterogeneity, Journal of Marketing Research, n°39, p. 479-487
- Akaike H. (1987), Factor analysis and AIC. Psychometrika, n°52, p. 317-332.
- Biétry F., Creusier J. (2013), Proposition d’une échelle de mesure positive de bien-être au travail (EPBET)., Revue de Gestion des Ressources Humaines, n°87, p. 23-41.
- HYPERLINK “http://franck.bietry.free.fr/GRH%2081%20art%20BIETRY%20LAROCHE%20p%2019-38.pdf” Biétry F., Laroche P. (2011), L’implication dans l’organisation, le syndicat et/ou la carrière., Revue de Gestion des Ressources Humaines, n°81, p. 19-38.
- Bowling A. (1991), Measuring health : A review of quality of life measurement scales., Social Indicators Research, n°49, p. 115-120.
- Boullé M., Guigourès R., Rossi F. (2012), Clustering hierarchique non paramétrique de données fonctionnelles., Extraction et gestion des connaissances, Bordeaux.
- Crawford J.R., Henry J.D. (2004), The positive and negative affect schedule (PANAS) : Construct validity, measurement properties and normative date in a large non-clinical sample., British Journal of Clinical Psychology, n°43, p. 245-265.
- Dagenais-Desmarais V., Savoie A. (2011), What is psychological well-being, really ? A grassroots approach from organizational sciences., Journal of Happiness Studies, July, p. 1-26.
- Diday E. (1971), Une nouvelle méthode en classification automatique et reconnaissance des formes : la méthode des nuées dynamiques., Revue de Statistique Appliquée, n°19, p. 19–33.
- Diener E. (2000), Subjective well-being : The science of happiness and a proposal for a national index., American Psychologist, n°55, p. 34-43.
- Diener E. (1984), The independence of positive and negative affect., Journal of Personality and Social Psychology, n°47, p. 1105-111.
- Gellatly I.R., Meyer J.P., Luchak, A.A. (2006), Combined effects of the three commitment components on focal and discretionary behaviors : A test of Meyer and Herscovitch’s propositions., Journal of vocational behavior, n°69, p. 331-345.
- Keyes C.L.M., Shmotkin D., Ryff C.D. (2002), Optimizing well-being : The empirical encounter of two traditions., Journal of Personality and Social Psychology, n°82, p. 1007-1022.
- Lerman I.C. (2009), Analyse logique, combinatoire et statistique de la construction d’une hiérarchie implicative ; niveaux et nœuds significatifs, Revue Mathématiques et sciences Humaines, n°16, p. 265-286.
- Lo Y., Mendell N., Rubin D. (2001), Testing the number of components in a normal mixture., Biometrika, n°88, p. 767-778.
- Lubke G., Muthén B. (2007), Performance of factor mixture models as a function of model size, criterion measure effects, and class-specific parameters., Structural Equation Modeling, n°14, p. 26-47.
- McGregor I., Little B.R. (1998), Personal projects, happiness, and meaning : On doing well and being yourself., Journal of Personality and Social Psychology, n° 74, p. 494-512.
- McLachlan G.J., Peel D. (2000), Finite Mixture Models. Wiley, New York.
- Meyer J.P., Allen N. J. (1991), A three-component conceptualisation of organizational commitment., Human Resource Management Review, n°11, p. 61-89.
- Meyer J.P., Stanley L.J., Parfyonova N.M. (2012), Employee commitment in context : The nature and implication of commitment profiles., Journal of Vocational Behavior, n°80, p. 1-16.
- Meyer J.P., Stanley L.J., Vandenberg R.J. (2013), A person-centered approach to the study of commitment., Human Resource Management Review, n°23, p. 190-202.
- Morin A.J.S., Morizot J., Boudrias J.S., Madore I.(2011), A multifoci person-centered perspective on workplace affective commitment : A latent profil/factor mixture analysis., Organizational Research Methods, n°14, p.58-90.
- Muthen L.K., Muthen B.O. (2007), Mplus Users Guide. Fourth Edition. Los Angeles, CA : Muthen & Muthen.
- Muthen B.O. (2002), Beyond SEM : General latent variable modeling., Behaviormetrika, n°29, p. 81-117.
- Nylund K.L., Asparouhov T., Muthen B. (2007), Deciding on the number of classes in latent class analysis and growth mixture modeling. A Monte Carlo simulation study., Structural Equation Modeling, n°14, p. 535-569.
- Ryff C.D., Keyes C.L.M. (1995), The structure of psychological well-being revisited., Journal of Personality and Social Psychology, n°69, p. 719-727.
- Schwartz G. (1978), Estimating the dimension of a model, The Annals of Statistics, n°6, p. 461-464.
- Sclove S.L. (1987), Application of model-selection criteria to some problems in multivariate analysis., Psychometrika, n°52, p. 333-343.
- Speece D.L. (1994), Cluster analysis in perspective., Exceptionality, n°5, p. 31-44.
- Voyer P., Boyer R. (2001), Le bien-être psychologique et ses concepts cousins, une analyse conceptuelle comparative., Santé mentale au Québec, n°26, p. 274-296.
- Wang M., Hanges P.J. (2011), Latent class procedures : applications to organizational research., Organizational Research Methods, n°14, p. 24-31.
- Warr P. (1990), The measurement of well-being and other aspects of mental health., Journal of Occupational Psychology, n°63, p. 193-210.
Mots-clés éditeurs : classification, factor mixture analysis, profils, comparaison méthodologique, bien-être au travail
Date de mise en ligne : 16/01/2014.
https://doi.org/10.3917/rimhe.010.0105