• Conférence/Rencontre/Débat (recherche),

CONFERENCE JORDAND BOUDESSEUL MC UPN Défis méthodologiques et psychométriques de la psychologie sociale : le cas des études de comparaisons sociale et de bien-être subjectif

Publié le 28 septembre 2022 Mis à jour le 18 décembre 2023

Défis méthodologiques et psychométriques de la psychologie sociale : le cas des études de comparaisons sociale et de bien-être subjectif Depuis l’article séminal de Ioannidis (2005) sur « Pourquoi la plupart des résultats de recherche publiés sont faux » et l’estimation de réplication de 23-29% en psychologie sociale par l’Open Science Collaboration (2015), de nombreux progrès ont été engagés pour changer les conduites de recherches en psychologie sociale (Lantian, 2021 ; Nosek et al., 2022 ; Zwaan et al., 2018). Néanmoins, de nombreux problèmes structurels demeurent notamment sur 1) l’évaluation des biais de publication, 2) le manque de validation systématique des mesures d’auto-report et leurs valeurs épistémiques réelles, ainsi que 3) la faible utilisation de modélisation non-linéaires (analytiques ou de micro- simulation) qui réduit la classe des falsificateurs virtuels.

Date(s)

le 3 octobre 2022

Lundi 3 octobre 16H
Lieu(x)

Bâtiment René Rémond (A)

Université Paris Nanterre
Salle A 304
Batiment René Raymond
Depuis l’article séminal de Ioannidis (2005) sur « Pourquoi la plupart des résultats
de recherche publiés sont faux » et l’estimation de réplication de 23-29% en psychologie
sociale par l’Open Science Collaboration (2015), de nombreux progrès ont été engagés
pour changer les conduites de recherches en psychologie sociale (Lantian, 2021 ; Nosek et
al., 2022 ; Zwaan et al., 2018). Néanmoins, de nombreux problèmes structurels
demeurent notamment sur 1) l’évaluation des biais de publication, 2) le manque de
validation systématique des mesures d’auto-report et leurs valeurs épistémiques réelles,
ainsi que 3) la faible utilisation de modélisation non-linéaires (analytiques ou de micro-
simulation) qui réduit la classe des falsificateurs virtuels.
Le premier axe de recherche se propose à la fois d’estimer et d’évaluer la
contribution réelle des outils de biais de publication (p-uniform, p-curve, z-curve, voir van
Assen et al., 2015, Simonsohn et al., 2014, Schimmack & Brunner, 2017 respectivement)
et de les utiliser de manière exhaustive dans une méta-analyse en cours sur comparaison
sociale et bien-être. Le second axe se focalise sur les problèmes de validité des échelles de
bien-être (Bond & Lang, 2019) et propose à la fois de construire des échelles
conceptuellement plus pertinentes et, en parallèle, d’explorer la valeur épistémique du
contenu auto-reportés par des participants sur des mesures à valences polarisées (douleur
vs. bien-être). Enfin, nous proposons d’utiliser des modèles analytiques (Boudesseul,
2022) pour déterminer des indices utiles tel que le ratio optimal d’articles publiés/non-
publiés dans les méta-analyses et ainsi donner aux chercheurs des critères pour quantifier
le risque de biais de publication dans leurs méta-analyses.

Référence

Bond, T. N., & Lang, K. (2019). The sad truth about happiness scales. Journal of Political
Economy, 127(4), 1629-1640. https://doi.org/10.1086/701679
Boudesseul, J. (2022, 28 mars). À la recherche de l’équilibre. THINK After Tank.
https://thinkaftertank.wordpress.com/2022/03/28/a-la-recherche-de-lequilibre/
Lantian, A. (2021). Les pratiques de recherche ouvertes en psychologie. Psychologie
française, 66(1), 71-90. https://doi.org/10.1016/j.psfr.2020.09.001
Nosek, B. A., Hardwicke, T. E., Moshontz, H., Allard, A., Corker, K. S., Dreber, A., ... &
Vazire, S. (2022). Replicability, robustness, and reproducibility in psychological
science. Annual review of psychology, 73, 719-748.
https://doi.org/10.1146/annurev-psych-020821-114157
Schimmack, U., & Brunner, J. (2017, November 17). Z-Curve.
https://doi.org/10.31219/osf.io/wr93f
Simonsohn, U., Nelson, L. D., & Simmons, J. P. (2014). P-curve: A key to the file-drawer.
Journal of Experimental Psychology: General, 143(2), 534–547.
https://doi.org/10.1037/a0033242
van Assen, M. A. L. M., van Aert, R. C. M., & Wicherts, J. M. (2015). Meta-analysis using
effect size distributions of only statistically significant studies. Psychological
Methods, 20(3), 293–309. https://doi.org/10.1037/met0000025
Zwaan, R. A., Etz, A., Lucas, R. E., & Donnellan, M. B. (2018). Making replication
mainstream. Behavioral and Brain Sciences, 41.
https://doi.org/10.1017/S0140525X17001972

Mis à jour le 18 décembre 2023