Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

2 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (37)

Tout (37) (0 à 10 de 37 résultats)

  • Articles et rapports : 11-522-X202200100010
    Description : Grandir au Québec est une enquête longitudinale populationnelle qui a débuté au printemps 2021 à l’Institut de la statistique du Québec. Parmi les enfants visés par ce suivi longitudinal, certains éprouveront des difficultés de développement à un moment ou un autre de leur vie. Ces mêmes enfants présentent souvent des caractéristiques associées à une érosion de l’échantillon plus élevée (famille à faible revenu, faible niveau de scolarisation des parents). Le présent article décrit les deux principaux défis que nous avons rencontrés en tentant d’assurer une représentativité suffisante de ces enfants, tant dans les résultats globaux que dans les analyses de sous-populations.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 12-001-X202300200001
    Description : Lorsqu’un fournisseur de soins de santé de Medicare est soupçonné de fraude liée à la facturation, on isole une population de paiements X versés à ce fournisseur sur une certaine période. Un examinateur médical agréé peut, dans un long processus, établir le trop-payé Y = X - (montant justifié par la preuve) pour chaque paiement. En temps normal, il y aura trop de paiements dans une population pour que chacun soit examiné avec soin, aussi prélève-t-on un échantillon probabiliste. Les trop-payés de cet échantillon servent alors à calculer une borne inférieure de l’intervalle de confiance de 90 % pour le trop-payé total de cette population. La borne correspond au montant exigé en recouvrement auprès du fournisseur. Malheureusement, les méthodes classiques de calcul de cette borne ne permettent parfois pas de dégager le niveau de confiance de 90 %, plus particulièrement lorsqu’on utilise un échantillon stratifié.

    Dans le présent document, nous présentons et décrivons 166 échantillons épurés tirés des enquêtes au sujet de l’intégrité de Medicare qui comportent 156 populations de paiements correspondantes. Les 7 588 paires échantillonnées (Y, X) indiquent 1) que les vérifications réalisées au sein de Medicare affichent des taux d’erreur élevés : plus de 76 % des paiements en question sont considérés comme étant des erreurs. Elles indiquent aussi 2) que les configurations de ces échantillons vont dans le sens d’un modèle de mélange « tout ou rien » pour (Y, X) qui est déjà défini dans les études spécialisées. Nous analysons des procédures de test de Monte Carlo fondées sur un modèle pour les plans de sondage de Medicare, ainsi que des méthodes de stratification fondées sur les moments anticipés du modèle. Pour la viabilité (atteinte d’un niveau de confiance de 90 %), nous définissons dans le présent article une nouvelle méthode de stratification qui rivalise avec les meilleures parmi de nombreuses méthodes existantes et qui semble moins sensible au choix de paramètres d’exploitation. Pour ce qui est du recouvrement des trop-payés (ce qui équivaut à une mesure de la précision), la nouvelle méthode se compare aussi aux meilleures parmi les nombreuses méthodes expérimentées. Malheureusement, aucun algorithme de stratification mis à l’essai ne s’est révélé viable pour plus de la moitié environ des 104 populations visées par l’essai.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200006
    Description : Les spécialistes de la recherche sur les enquêtes se tournent de plus en plus vers la collecte multimodale de données pour composer avec la baisse des taux de réponse aux enquêtes et l’augmentation des coûts. Une approche efficace propose des modes de collecte moins coûteux (par exemple sur le Web) suivis d’un mode plus coûteux pour un sous-échantillon des unités (par exemple les ménages) dans chaque unité primaire d’échantillonnage (UPE). Nous présentons deux solutions de rechange à cette conception classique. La première consiste à sous-échantillonner les UPE plutôt que les unités pour limiter les coûts. La seconde est un plan hybride qui comprend un échantillon (à deux degrés) par grappes et un échantillon indépendant sans mise en grappes. À l’aide d’une simulation, nous démontrons que le plan hybride comporte des avantages considérables.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 11-522-X202100100007
    Description : Le National Center for Health Statistics (NCHS) des États-Unis réalise chaque année la National Ambulatory Medical Care Survey (NAMCS), afin d’évaluer les caractéristiques des cabinets ainsi que les soins ambulatoires fournis par les médecins de cabinets médicaux aux États-Unis, y compris à l’aide d’interviews d’un échantillon de médecins. Après le début de la pandémie de COVID-19, le NCHS a adapté la méthodologie du NAMCS pour évaluer les répercussions de la COVID-19 sur les médecins de cabinets médicaux, y compris les pénuries d’équipement de protection individuelle, les tests de dépistage de la COVID-19 dans les cabinets médicaux, les prestataires recevant un diagnostic positif à la COVID-19 et le recours à la télémédecine au cours de la pandémie. Le présent article décrit les défis et les possibilités liés à la réalisation de l’enquête NAMCS de 2020 et présente les principales conclusions concernant l’expérience des médecins pendant la pandémie de COVID-19.

    Mots clés : National Ambulatory Medical Care Survey (NAMCS, Enquête nationale sur les soins médicaux ambulatoires); médecins en cabinet médical; télémédecine; équipement de protection individuelle.

    Date de diffusion : 2021-10-22

  • Articles et rapports : 12-001-X201900200006
    Description :

    Ce document présente un nouvel algorithme pour résoudre le problème de stratification unidimensionnelle optimale, lequel se ramène à une détermination des bornes de strate. Lorsque le nombre de strates H et la taille totale de l’échantillon n sont fixes, on obtient les bornes de strate en minimisant la variance de l’estimateur d’un total pour la variable de stratification. C’est un algorithme qui fait appel à la métaheuristique de l’algorithme génétique biaisé à clés aléatoires (BRKGA) pour trouver la solution optimale. Il a été démontré que cette métaheuristique produit des solutions de bonne qualité à de nombreux problèmes d’optimisation à un prix modeste en temps de calcul. L’algorithme est mis en œuvre dans le package stratbr en R disponible à partir de CRAN (de Moura Brito, do Nascimento Silva et da Veiga, 2017a). Nous livrons des résultats numériques pour un ensemble de 27 populations, ce qui permet de comparer le nouvel algorithme à certaines méthodes rivales figurant dans la documentation spécialisée. L’algorithme est d’un meilleur rendement que les méthodes plus simples par approximation. Il est également supérieur à quelques autres approches en optimisation. Il est égal en rendement à la meilleure technique d’optimisation que l’on doit à Kozak (2004). Son principal avantage sur la méthode de Kozak réside dans le couplage de la stratification optimale avec la répartition optimale que proposent de Moura Brito, do Nascimento Silva, Silva Semaan et Maculan (2015), d’où l’assurance que, si les bornes de stratification obtenues atteignent l’optimum global, la solution dégagée dans l’ensemble sera aussi l’optimum global pour les bornes de stratification et la répartition de l’échantillon.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201800254954
    Description :

    Ces dernières années, les techniques d’échantillonnage équilibré ont suscité un regain d’intérêt. Ces techniques contraignent les estimateurs d’Horvitz-Thompson des totaux des variables auxiliaires a égaler, du moins approximativement, les totaux vrais correspondants, pour éviter la présence de mauvais échantillons. Plusieurs procédures existent pour exécuter l’échantillonnage équilibré, dont la méthode du cube, élaborée par Deville et Tillé (2004), et l’algorithme réjectif, introduit par Hájek (1964). Après un bref examen de ces méthodes d’échantillonnage, motivé par la planification d’une enquête auprès des pêcheurs sportifs, nous étudions par simulations Monte Carlo les plans de sondage produits par ces deux algorithmes d’échantillonnage.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201500214249
    Description :

    Le problème de la répartition optimale des échantillons dans les enquêtes basées sur un plan d’échantillonnage stratifié a été abordé pour la première fois par Neyman en 1934. Depuis, de nombreux chercheurs ont étudié le problème de la répartition des échantillons dans les enquêtes à plusieurs variables, et plusieurs méthodes ont été proposées. Ces méthodes se divisent essentiellement en deux catégories. La première catégorie englobe les méthodes de répartition qui réduisent les coûts des enquêtes tout en maintenant les coefficients de variation des estimateurs de totaux sous des seuils spécifiés pour toutes les variables d’enquête d’intérêt. La seconde catégorie de méthodes vise à minimiser une moyenne pondérée des variances relatives des estimateurs des totaux étant donné une taille globale maximale d’échantillon ou un coût maximum. Cet article propose une nouvelle approche d’optimisation pour régler le problème de la répartition des échantillons dans les enquêtes à plusieurs variables. Cette approche se fonde sur une formulation de la programmation en nombres entiers binaires. Plusieurs expériences numériques ont démontré que l’approche proposée offre des solutions efficaces à ce problème, qui permettent d’améliorer un « algorithme classique » et peuvent être plus efficaces que l’algorithme de Bethel (1985, 1989).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201400114003
    Description :

    Dans la littérature n’ayant pas trait aux sondages, il est fréquent de supposer que l’échantillonnage est effectué selon un processus aléatoire simple qui produit des échantillons indépendants et identiquement distribués (IID). De nombreuses méthodes statistiques sont élaborées en grande partie dans cet univers IID. Or, l’application de ces méthodes aux données provenant de sondages complexes en omettant de tenir compte des caractéristiques du plan de sondage peut donner lieu à des inférences erronées. Donc, beaucoup de temps et d’effort ont été consacrés à l’élaboration de méthodes statistiques permettant d’analyser les données d’enquêtes complexes en tenant compte du plan de sondage. Ce problème est particulièrement important lorsqu’on génère des populations synthétiques en faisant appel à l’inférence bayésienne en population finie, comme cela se fait souvent dans un contexte de données manquantes ou de risque de divulgation, ou lorsqu’on combine des données provenant de plusieurs enquêtes. En étendant les travaux antérieurs décrits dans la littérature sur le bootstrap bayésien en population finie, nous proposons une méthode pour produire des populations synthétiques à partir d’une loi prédictive a posteriori d’une façon qui inverse les caractéristiques du plan de sondage complexe et génère des échantillons aléatoires simples dans une optique de superpopulation, en ajustant les données complexes afin qu’elles puissent être analysées comme des échantillons aléatoires simples. Nous considérons une étude par simulation sous un plan de sondage en grappes stratifié avec probabilités inégales de sélection, et nous appliquons la méthode non paramétrique proposée pour produire des populations synthétiques pour la National Health Interview Survey (NHIS) et la Medical Expenditure Panel Survey (MEPS) de 2006, qui sont des enquêtes à plan de sondage en grappes stratifié avec probabilités inégales de sélection.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X200800210762
    Description :

    Le présent article porte sur le traitement de la répartition optimale dans l'échantillonnage stratifié multivarié comme une optimisation matricielle non linéaire en nombres entiers. Un problème non linéaire d'optimisation multi-objectifs en nombres entiers est étudié à titre de cas particulier. Enfin, un exemple détaillé, y compris certaines méthodes proposées, est donné à la fin de l'exposé.

    Date de diffusion : 2008-12-23

  • Enquêtes et programmes statistiques — Documentation : 89-631-X
    Description :

    Le présent document expose les faits nouveaux et les principes qui sous-tendent l'élaboration des cycles récents de l'Enquête sociale générale (ESG). Nous effectuons d'abord un survol des objectifs de l'ESG et des thèmes des cycles précédents, puis nous examinons plus particulièrement deux cycles récents concernant la famille au Canada : les transitions familiales (2006) et la famille, le soutien social et la retraite (2007). Pour terminer, nous présentons sommairement l'ESG de 2008, qui portera sur les réseaux sociaux, et nous décrivons un projet spécial qui marquera le vingtième anniversaire de l'ESG.

    L'enquête recueille des données sur une période de 12 mois auprès de la population des ménages privés des 10 provinces. À l'exception des cycles 16 et 21, qui ne ciblaient que des personnes de 45 ans et plus, l'enquête s'adresse à des répondants de 15 ans et plus.

    Le cycle 20 de l'ESG de 2006 est le quatrième cycle consacré à la collecte de données sur la famille (les trois premiers ont eu lieu en 1990, 1995 et 2001). Le cycle 20 aborde la plupart des mêmes thèmes que les cycles précédents sur la famille, mais quelques sections ont été revues et élaborées davantage. Les données recueillies permettent aux analystes d'étudier des variables associées à l'histoire conjugale et l'historique de la fécondité (chronologie des mariages, unions libres et enfants), les origines familiales, le départ des enfants du domicile familial, les intentions de fécondité, la garde d'enfants l'histoire professionnelle et d'autres caractéristiques socioéconomiques. Des questions portant sur les accords ou ententes de soutien financier (pour les enfants et l'ex-conjoint ou ex-partenaire) entre les familles divorcées ou séparées ont été modifiées, alors que des sections sur la participation sociale, le bien-être et les caractéristiques de la résidence ont été ajoutées.

    Date de diffusion : 2008-05-27
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (35)

Analyses (35) (0 à 10 de 35 résultats)

  • Articles et rapports : 11-522-X202200100010
    Description : Grandir au Québec est une enquête longitudinale populationnelle qui a débuté au printemps 2021 à l’Institut de la statistique du Québec. Parmi les enfants visés par ce suivi longitudinal, certains éprouveront des difficultés de développement à un moment ou un autre de leur vie. Ces mêmes enfants présentent souvent des caractéristiques associées à une érosion de l’échantillon plus élevée (famille à faible revenu, faible niveau de scolarisation des parents). Le présent article décrit les deux principaux défis que nous avons rencontrés en tentant d’assurer une représentativité suffisante de ces enfants, tant dans les résultats globaux que dans les analyses de sous-populations.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 12-001-X202300200001
    Description : Lorsqu’un fournisseur de soins de santé de Medicare est soupçonné de fraude liée à la facturation, on isole une population de paiements X versés à ce fournisseur sur une certaine période. Un examinateur médical agréé peut, dans un long processus, établir le trop-payé Y = X - (montant justifié par la preuve) pour chaque paiement. En temps normal, il y aura trop de paiements dans une population pour que chacun soit examiné avec soin, aussi prélève-t-on un échantillon probabiliste. Les trop-payés de cet échantillon servent alors à calculer une borne inférieure de l’intervalle de confiance de 90 % pour le trop-payé total de cette population. La borne correspond au montant exigé en recouvrement auprès du fournisseur. Malheureusement, les méthodes classiques de calcul de cette borne ne permettent parfois pas de dégager le niveau de confiance de 90 %, plus particulièrement lorsqu’on utilise un échantillon stratifié.

    Dans le présent document, nous présentons et décrivons 166 échantillons épurés tirés des enquêtes au sujet de l’intégrité de Medicare qui comportent 156 populations de paiements correspondantes. Les 7 588 paires échantillonnées (Y, X) indiquent 1) que les vérifications réalisées au sein de Medicare affichent des taux d’erreur élevés : plus de 76 % des paiements en question sont considérés comme étant des erreurs. Elles indiquent aussi 2) que les configurations de ces échantillons vont dans le sens d’un modèle de mélange « tout ou rien » pour (Y, X) qui est déjà défini dans les études spécialisées. Nous analysons des procédures de test de Monte Carlo fondées sur un modèle pour les plans de sondage de Medicare, ainsi que des méthodes de stratification fondées sur les moments anticipés du modèle. Pour la viabilité (atteinte d’un niveau de confiance de 90 %), nous définissons dans le présent article une nouvelle méthode de stratification qui rivalise avec les meilleures parmi de nombreuses méthodes existantes et qui semble moins sensible au choix de paramètres d’exploitation. Pour ce qui est du recouvrement des trop-payés (ce qui équivaut à une mesure de la précision), la nouvelle méthode se compare aussi aux meilleures parmi les nombreuses méthodes expérimentées. Malheureusement, aucun algorithme de stratification mis à l’essai ne s’est révélé viable pour plus de la moitié environ des 104 populations visées par l’essai.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200006
    Description : Les spécialistes de la recherche sur les enquêtes se tournent de plus en plus vers la collecte multimodale de données pour composer avec la baisse des taux de réponse aux enquêtes et l’augmentation des coûts. Une approche efficace propose des modes de collecte moins coûteux (par exemple sur le Web) suivis d’un mode plus coûteux pour un sous-échantillon des unités (par exemple les ménages) dans chaque unité primaire d’échantillonnage (UPE). Nous présentons deux solutions de rechange à cette conception classique. La première consiste à sous-échantillonner les UPE plutôt que les unités pour limiter les coûts. La seconde est un plan hybride qui comprend un échantillon (à deux degrés) par grappes et un échantillon indépendant sans mise en grappes. À l’aide d’une simulation, nous démontrons que le plan hybride comporte des avantages considérables.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 11-522-X202100100007
    Description : Le National Center for Health Statistics (NCHS) des États-Unis réalise chaque année la National Ambulatory Medical Care Survey (NAMCS), afin d’évaluer les caractéristiques des cabinets ainsi que les soins ambulatoires fournis par les médecins de cabinets médicaux aux États-Unis, y compris à l’aide d’interviews d’un échantillon de médecins. Après le début de la pandémie de COVID-19, le NCHS a adapté la méthodologie du NAMCS pour évaluer les répercussions de la COVID-19 sur les médecins de cabinets médicaux, y compris les pénuries d’équipement de protection individuelle, les tests de dépistage de la COVID-19 dans les cabinets médicaux, les prestataires recevant un diagnostic positif à la COVID-19 et le recours à la télémédecine au cours de la pandémie. Le présent article décrit les défis et les possibilités liés à la réalisation de l’enquête NAMCS de 2020 et présente les principales conclusions concernant l’expérience des médecins pendant la pandémie de COVID-19.

    Mots clés : National Ambulatory Medical Care Survey (NAMCS, Enquête nationale sur les soins médicaux ambulatoires); médecins en cabinet médical; télémédecine; équipement de protection individuelle.

    Date de diffusion : 2021-10-22

  • Articles et rapports : 12-001-X201900200006
    Description :

    Ce document présente un nouvel algorithme pour résoudre le problème de stratification unidimensionnelle optimale, lequel se ramène à une détermination des bornes de strate. Lorsque le nombre de strates H et la taille totale de l’échantillon n sont fixes, on obtient les bornes de strate en minimisant la variance de l’estimateur d’un total pour la variable de stratification. C’est un algorithme qui fait appel à la métaheuristique de l’algorithme génétique biaisé à clés aléatoires (BRKGA) pour trouver la solution optimale. Il a été démontré que cette métaheuristique produit des solutions de bonne qualité à de nombreux problèmes d’optimisation à un prix modeste en temps de calcul. L’algorithme est mis en œuvre dans le package stratbr en R disponible à partir de CRAN (de Moura Brito, do Nascimento Silva et da Veiga, 2017a). Nous livrons des résultats numériques pour un ensemble de 27 populations, ce qui permet de comparer le nouvel algorithme à certaines méthodes rivales figurant dans la documentation spécialisée. L’algorithme est d’un meilleur rendement que les méthodes plus simples par approximation. Il est également supérieur à quelques autres approches en optimisation. Il est égal en rendement à la meilleure technique d’optimisation que l’on doit à Kozak (2004). Son principal avantage sur la méthode de Kozak réside dans le couplage de la stratification optimale avec la répartition optimale que proposent de Moura Brito, do Nascimento Silva, Silva Semaan et Maculan (2015), d’où l’assurance que, si les bornes de stratification obtenues atteignent l’optimum global, la solution dégagée dans l’ensemble sera aussi l’optimum global pour les bornes de stratification et la répartition de l’échantillon.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 12-001-X201800254954
    Description :

    Ces dernières années, les techniques d’échantillonnage équilibré ont suscité un regain d’intérêt. Ces techniques contraignent les estimateurs d’Horvitz-Thompson des totaux des variables auxiliaires a égaler, du moins approximativement, les totaux vrais correspondants, pour éviter la présence de mauvais échantillons. Plusieurs procédures existent pour exécuter l’échantillonnage équilibré, dont la méthode du cube, élaborée par Deville et Tillé (2004), et l’algorithme réjectif, introduit par Hájek (1964). Après un bref examen de ces méthodes d’échantillonnage, motivé par la planification d’une enquête auprès des pêcheurs sportifs, nous étudions par simulations Monte Carlo les plans de sondage produits par ces deux algorithmes d’échantillonnage.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201500214249
    Description :

    Le problème de la répartition optimale des échantillons dans les enquêtes basées sur un plan d’échantillonnage stratifié a été abordé pour la première fois par Neyman en 1934. Depuis, de nombreux chercheurs ont étudié le problème de la répartition des échantillons dans les enquêtes à plusieurs variables, et plusieurs méthodes ont été proposées. Ces méthodes se divisent essentiellement en deux catégories. La première catégorie englobe les méthodes de répartition qui réduisent les coûts des enquêtes tout en maintenant les coefficients de variation des estimateurs de totaux sous des seuils spécifiés pour toutes les variables d’enquête d’intérêt. La seconde catégorie de méthodes vise à minimiser une moyenne pondérée des variances relatives des estimateurs des totaux étant donné une taille globale maximale d’échantillon ou un coût maximum. Cet article propose une nouvelle approche d’optimisation pour régler le problème de la répartition des échantillons dans les enquêtes à plusieurs variables. Cette approche se fonde sur une formulation de la programmation en nombres entiers binaires. Plusieurs expériences numériques ont démontré que l’approche proposée offre des solutions efficaces à ce problème, qui permettent d’améliorer un « algorithme classique » et peuvent être plus efficaces que l’algorithme de Bethel (1985, 1989).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201400114003
    Description :

    Dans la littérature n’ayant pas trait aux sondages, il est fréquent de supposer que l’échantillonnage est effectué selon un processus aléatoire simple qui produit des échantillons indépendants et identiquement distribués (IID). De nombreuses méthodes statistiques sont élaborées en grande partie dans cet univers IID. Or, l’application de ces méthodes aux données provenant de sondages complexes en omettant de tenir compte des caractéristiques du plan de sondage peut donner lieu à des inférences erronées. Donc, beaucoup de temps et d’effort ont été consacrés à l’élaboration de méthodes statistiques permettant d’analyser les données d’enquêtes complexes en tenant compte du plan de sondage. Ce problème est particulièrement important lorsqu’on génère des populations synthétiques en faisant appel à l’inférence bayésienne en population finie, comme cela se fait souvent dans un contexte de données manquantes ou de risque de divulgation, ou lorsqu’on combine des données provenant de plusieurs enquêtes. En étendant les travaux antérieurs décrits dans la littérature sur le bootstrap bayésien en population finie, nous proposons une méthode pour produire des populations synthétiques à partir d’une loi prédictive a posteriori d’une façon qui inverse les caractéristiques du plan de sondage complexe et génère des échantillons aléatoires simples dans une optique de superpopulation, en ajustant les données complexes afin qu’elles puissent être analysées comme des échantillons aléatoires simples. Nous considérons une étude par simulation sous un plan de sondage en grappes stratifié avec probabilités inégales de sélection, et nous appliquons la méthode non paramétrique proposée pour produire des populations synthétiques pour la National Health Interview Survey (NHIS) et la Medical Expenditure Panel Survey (MEPS) de 2006, qui sont des enquêtes à plan de sondage en grappes stratifié avec probabilités inégales de sélection.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X200800210762
    Description :

    Le présent article porte sur le traitement de la répartition optimale dans l'échantillonnage stratifié multivarié comme une optimisation matricielle non linéaire en nombres entiers. Un problème non linéaire d'optimisation multi-objectifs en nombres entiers est étudié à titre de cas particulier. Enfin, un exemple détaillé, y compris certaines méthodes proposées, est donné à la fin de l'exposé.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 11-522-X200600110441
    Description :

    Comment estime t on efficacement la taille de l'échantillon tout en établissant un consensus entre de nombreux chercheurs pour des projets polyvalents? Nous présentons un modèle s'appuyant sur un tableur ordinaire pour produire des estimations de la puissance analytique, de la précision et des coûts financiers selon divers scénarios d'échantillonnage, tel qu'il a été utilisé lors de l'élaboration de l'Enquête sur le tabagisme en Ontario. En plus des estimations des coûts, des formules complexes de calcul de la taille d'échantillon ont été imbriquées dans un tableur pour déterminer la puissance et la précision des analyses, en tenant compte des effets de plan et des cas perdus de vue au suivi définis par l'utilisateur. Un tableur ordinaire peut être combiné à des formules complexes afin de faciliter l'échange de connaissances entre les méthodologistes et les intervenants, et en fait, de démystifier la "boîte noire de la taille d'échantillon".

    Date de diffusion : 2008-03-17
Références (2)

Références (2) ((2 résultats))

  • Enquêtes et programmes statistiques — Documentation : 89-631-X
    Description :

    Le présent document expose les faits nouveaux et les principes qui sous-tendent l'élaboration des cycles récents de l'Enquête sociale générale (ESG). Nous effectuons d'abord un survol des objectifs de l'ESG et des thèmes des cycles précédents, puis nous examinons plus particulièrement deux cycles récents concernant la famille au Canada : les transitions familiales (2006) et la famille, le soutien social et la retraite (2007). Pour terminer, nous présentons sommairement l'ESG de 2008, qui portera sur les réseaux sociaux, et nous décrivons un projet spécial qui marquera le vingtième anniversaire de l'ESG.

    L'enquête recueille des données sur une période de 12 mois auprès de la population des ménages privés des 10 provinces. À l'exception des cycles 16 et 21, qui ne ciblaient que des personnes de 45 ans et plus, l'enquête s'adresse à des répondants de 15 ans et plus.

    Le cycle 20 de l'ESG de 2006 est le quatrième cycle consacré à la collecte de données sur la famille (les trois premiers ont eu lieu en 1990, 1995 et 2001). Le cycle 20 aborde la plupart des mêmes thèmes que les cycles précédents sur la famille, mais quelques sections ont été revues et élaborées davantage. Les données recueillies permettent aux analystes d'étudier des variables associées à l'histoire conjugale et l'historique de la fécondité (chronologie des mariages, unions libres et enfants), les origines familiales, le départ des enfants du domicile familial, les intentions de fécondité, la garde d'enfants l'histoire professionnelle et d'autres caractéristiques socioéconomiques. Des questions portant sur les accords ou ententes de soutien financier (pour les enfants et l'ex-conjoint ou ex-partenaire) entre les familles divorcées ou séparées ont été modifiées, alors que des sections sur la participation sociale, le bien-être et les caractéristiques de la résidence ont été ajoutées.

    Date de diffusion : 2008-05-27

  • Enquêtes et programmes statistiques — Documentation : 11-522-X20010016293
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes, et s'adresse à des méthodologistes.

    Le présent article décrit le Projet régional des indicateurs de l'éducation (PRIE) du deuxième Sommet des Amériques dont l'objectif fondamental est d'élaborer un ensemble d'indicateurs comparables pour les pays des Amériques. Le projet, qui est dirigé par le ministère de l'Éducation du Chili, a été mis sur pied pour répondre aux besoins qu'ont les pays concernés d'améliorer leur système d'information et leurs statistiques, et de créer des indicateurs fiables et pertinents pour appuyer les décisions dans le domaine de l'éducation, à l'échelle de leur pays et de la région des Amériques dans son ensemble. Dans la première partie de l'article, nous analysons le rôle important des statistiques et des indicateurs dans le soutien des politiques et des programmes d'éducation, et nous décrivons la situation des pays en ce qui concerne les systèmes d'information et de statistique. Nous discutons aussi des grands problèmes qui doivent être résolus et passons en revue les enseignements tirés de la participation des pays à d'autres projets ou programmes d'indicateurs de l'éducation, comme le programme INES (Indicateurs des systèmes nationaux d'enseignement), le projet IFE (Initiative pour les femmes entrepreneurs), le projet du MERCOSUR (Marché commun du Sud) et le CREMIS (Gestion régionale éducative des systèmes d'information des Caraïbes). Dans la deuxième partie de l'article, nous examinons les objectifs et la mise en oeuvre du programme de coopération technique du PRIE. Par ailleurs, nous mettons l'accent sur la façon dont cette coopération technique répond aux besoins des pays concernés et les aide à combler les lacunes quant à la disponibilité et à la fiabilité des données.

    Date de diffusion : 2002-09-12
Date de modification :