Listing 1 - 3 of 3 |
Sort by
|
Choose an application
La littérature scientifique est affectée par des pratiques de publication, de recherche, et de problèmes méthodologiques courants qui réduisent la qualité de la littérature publiée. Les méta-analyses s’inscrivent dans ce contexte et sont elles-mêmes sujettes à une série de problèmes, dont l’ampleur a été explorée dans des investigations relevant du domaine biomédical. A ce jour, ce genre d’étude n’existe pas en ce qui concerne la psychologie et des disciplines apparentées. Ce mémoire a pour but d’adresser cette problématique. Pour ce faire, 170 méta-analyses issues de PsycINFO et publiées en 2016 ont été sélectionnées et codées sur trois check-lists : la liste PRISMA (Moher et al., 2009) porte sur la qualité du « reporting » des méta-analyses (c’est-à-dire le rapport dans les articles publiés des informations qui permettent d’évaluer et de répliquer l’analyse), et les listes AMSTAR (Shea et al., 2007) et AMSTAR 2 (Shea et al., 2017) permettent d’évaluer leur qualité méthodologique. Les méta-analyses ont été séparées en deux groupes selon que leurs auteurs rapportent avoir utilisé ou non la grille PRISMA. Plusieurs questions sont adressées : la qualité globale de reporting et méthodologique ; l’influence du facteur d’impact, de l’index H et de l’expérience du premier auteur en matière de revues systématiques (dont la méta-analyse est le résultat quantifié) sur les scores AMSTAR et AMSTAR 2, ainsi que sur la propension des auteurs à utiliser PRISMA ; et enfin l’influence de l’adoption de PRISMA sur les scores PRISMA, AMSTAR et AMSTAR 2. Les résultats montrent que la qualité de reporting et méthodologique des méta-analyses n’est pas optimale. Le facteur d’impact, l’index H et l’expérience du premier auteur ressortent statistiquement significatifs de certains tests, mais leur taille d’effet laisse penser qu’ils n’ont qu’une petite influence sur les scores AMSTAR et AMSTAR 2. Ces variables ne semblent pas non plus être d’une importance cruciale quant à la propension des auteurs à utiliser PRISMA. Enfin, il a pu être montré que l’utilisation de PRISMA est liée à une meilleure qualité méthodologique et de reporting, surtout au niveau de certains items des check-lists. En conclusion, la qualité méthodologique et de reporting des méta-analyses relatives à la psychologie et à des disciplines apparentées n’est pas optimale, et le facteur d’impact, l’index H et l’expérience du premier auteur ne sont pas, selon les résultats, d’un rôle déterminant. L’utilisation de PRISMA semble avoir une influence positive sur les scores des checks-lists, mais l’amélioration globale des méta-analyses nécessite également des changements dans certains aspects du fonctionnement de la science.
Choose an application
INTRODUCTION. AMSTAR 2 est un outil développé afin d'évaluer la qualité méthodologique des revues systématiques (RS) et des méta-analyses (MA). L'évaluation des RS/MA par AMSTAR 2 est basée sur la classification de ses critères en 7 critères critiques et 9 critères non critiques, le non-respect des critères critiques étant plus sévèrement sanctionné. L’objectif principal de l'étude est la priorisation de ces critères sur base de l'avis des experts en RS/MA. L'objectif secondaire est l'étude de l'impact des caractéristiques des répondants sur la priorisation. MATÉRIEL ET MÉTHODE. Les experts ont été identifiés parmi les membres de la collaboration Cochrane, les auteurs de RS/MA Cochrane, les auteurs de méta-recherche ainsi que par recherche manuelle et échantillonnage en boule de neige. Ils ont été invités par e-mail à répondre à un questionnaire de type best-worst scaling (BWS). Pour chaque critère, un score d'importance relative (RIS) moyen a été déterminé au départ du BWS. Une priorisation des critères sur base des RIS a été réalisée et accompagnée d'analyses secondaires pour évaluer l'impact de la connaissance de AMSTAR 2, du niveau d'expertise des répondants et d'une expertise principalement portée sur les RS sur les résultats. RÉSULTATS. 245 experts ont répondu à l'enquête. Les deux critères considérés comme les plus importants par les experts sont ceux relatifs à l'adéquation des méthodes statistiques utilisées en cas de MA et à l'exhaustivité de la stratégie de recherche des études. Il apparaît que parmi les 7 critères les plus importants retenus par les experts, 5 d'entre eux sont des critères critiques d'AMSTAR 2. Les analyses secondaires n'ont pas montré d'impact significatif des caractéristiques des répondants sur les résultats. DISCUSSION/CONCLUSION. La priorisation obtenue montre que la plupart des critères critiques sont bien considérés comme d'importance élevée et appuie globalement les choix des auteurs de AMSTAR 2. Cette priorisation pourrait être utilisée comme point de départ pour améliorer la façon dont AMSTAR 2 évalue la qualité méthodologique des RS/MA.
Choose an application
Depuis quelques années un manque de puissance a été mis au jour dans divers domaines de recherche. Cela a abouti à de sérieux doutes quant à la reproductibilité de beaucoup de résultats scientifiques. À notre connaissance, aucune étude n’a évalué ce problème en psychopharmacologie expérimentale préclinique. Nous avons choisi d’étudier le sous-domaine de la préférence de lieu conditionné induite par la nicotine chez la souris (PLCNIC). Nous avons identifié les articles le concernant sur PubMed et nous en avons extrait les tailles des échantillons, le type de tests statistiques (F ou t), leurs résultats, leurs degrés de liberté, et leurs p-valeurs. À partir de ces valeurs, nous avons calculé la puissance prospective médiane pour 6 tailles d’effets (classification de Sawilowsky, 2009). Le taux de vraies découvertes (True Report Probability : TRP) a été calculé à partir des puissances médianes, de l’erreur de type I fixée à 5 %, et de la plausibilité que nous avons fait varier de 0 à 1. Des 139 articles trouvés sur PubMed, 48 ont rencontré nos critères d’inclusion. Ces 48 articles contenaient 109 tests statistiques utilisables pour notre projet. Dans cet échantillon de tests 77,57 % sont significatifs. Les puissances médianes pour les tests F pour les petites, moyennes, et grandes tailles d’effet sont respectivement de 9,5 %, 34,1 % et 70,4 %. Pour les tests t nous avons trouvé 6,8 %, 17 %, et 35,8 %. Aucun de ces chiffres n’atteint le seuil recommandé de 80 %. Pour une plausibilité de 10 %, nous trouvons des TRP pour les tests F pour une petite, moyenne et grande taille d’effet de 16 % 40,8 %, et 58,5 % soit des taux de fausses découvertes de 84 %, 59,2 %, et 41,5 %. Pour les tests t les TRP pour les mêmes tailles d’effets sont de 12 %, 25,3 %, et 41,7 % soit des taux de fausses découvertes de 88 %, 74,7 %, et 58,3 %, bien supérieurs aux 5 % maximum que l’on croit garantis par la probabilité alpha. Nous retrouvons donc, dans le sous-domaine de la PLCNIC, le manque de puissance et l’augmentation de faux positif associée qui ont déjà été observés dans d’autres disciplines. Nous avons aussi étendu les graphiques de Ioannidis (2005) pour représenter les TRP qu’on obtient avec des rapports de chance supérieurs à 1/1 qui pourrait donner des TRP plus favorables.
Mice --- Statistical power --- meta-research --- conditioned place preference --- nicotine --- FDR --- TRP --- false discovery rate --- true report probability --- souris --- puissance statistique --- méta-recherche --- préférence de lieu conditionné --- nicotine --- FDR --- TRP --- Taux de fausses découvertes --- taux de vraies découvertes --- Sciences sociales & comportementales, psychologie > Psychologie animale, éthologie & psychobiologie --- Sciences sociales & comportementales, psychologie > Neurosciences & comportement
Listing 1 - 3 of 3 |
Sort by
|