Techniques statistiques

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

2 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (13)

Tout (13) (0 à 10 de 13 résultats)

  • Stats en bref : 89-20-00062022004
    Description :

    L’acquisition l’exploration, l’analyse et l’interprétation des données sont des étapes essentielles du processus permettant de produire des renseignements qui sont utiles pour la société, l’économie et l’environnement. Dans cette vidéo, nous discuterons de l’importance de tenir compte de l’éthique des données tout au long du processus de production de renseignements statistiques.

    Comme préalable à cette vidéo, assurez-vous d’avoir regardé la vidéo intitulée « L’éthique des données : Une introduction », qui se trouve également dans le catalogue d’apprentissage de l’Initiative de formation en littératie des données de Statistique Canada.

    Date de diffusion : 2022-10-17

  • Stats en bref : 89-20-00062022001
    Description :

    La collecte, l’exploration, l’analyse et l’interprétation des données sont des étapes essentielles de la production de renseignements qui profitent à la société, à l’économie et à l’environnement. Pour mener à bien ces processus, l'éthique des données doivent être assumées afin de garantir une utilisation appropriée des données.

    Date de diffusion : 2022-05-24

  • Stats en bref : 89-20-00062022002
    Description :

    Cette vidéo expliquera ce que signifie être FAIR en ce qui concerne les données et les métadonnées, et comment chaque pilier de FAIR sert à guider les utilisateurs et les producteurs dans le cheminement des données, afin de leur permettre d’obtenir une valeur maximale à long terme.

    Date de diffusion : 2022-05-24

  • Articles et rapports : 11-522-X202100100014
    Description : De récents développements des modes d’administration de questionnaires et d’extraction de données ont favorisé l’utilisation d’échantillons non probabilistes, qui présentent souvent un biais de sélection découlant d’un manque de plan de sondage ou de l’autosélection des participants. Ce biais peut être traité par plusieurs ajustements, dont l’applicabilité dépend du type d’information auxiliaire disponible. Des poids de calage peuvent être utilisés lorsque seuls des totaux de population de variables auxiliaires sont disponibles. En cas de disponibilité d’une enquête de référence respectant un plan de sondage probabiliste, plusieurs méthodes peuvent être appliquées, comme l’ajustement sur le score de propension, l’appariement statistique ou l’imputation de masse, ainsi que des estimateurs doublement robustes. En cas de disponibilité d’un recensement complet de la population cible pour certaines covariables auxiliaires, des estimateurs fondés sur des modèles de superpopulation (souvent utilisés en échantillonnage probabiliste) peuvent être adaptés au cas d’échantillonnage non probabiliste. Nous avons étudié la combinaison de certaines de ces méthodes, afin de produire des estimations moins biaisées et plus efficaces, ainsi que l’utilisation de techniques de prédiction modernes (comme la classification par apprentissage automatique et des algorithmes de régression) dans les étapes de modélisation des ajustements décrits. Nous avons en outre étudié l’utilisation de techniques de sélection de variables avant l’étape de modélisation de l’ajustement sur le score de propension. Les résultats indiquent que les ajustements fondés sur la combinaison de plusieurs méthodes peuvent améliorer l’efficacité des estimations et que l’utilisation de l’apprentissage automatique et de techniques de sélection de variables peut contribuer à réduire le biais et la variance des estimateurs dans une plus grande mesure dans plusieurs situations.

    Mots clés : échantillonnage non probabiliste; calage; ajustement sur le score de propension; appariement.

    Date de diffusion : 2021-10-15

  • Articles et rapports : 11-633-X2019003
    Description :

    Le présent rapport donne un aperçu des définitions et des cadres de compétence de la littératie des données, ainsi que des outils d’évaluation utilisés pour la mesurer. Tout cela est fondé sur la littérature existante et les pratiques actuelles dans le monde. La littératie des données, ou la capacité de tirer des renseignements utiles des données, est un concept relativement nouveau. Cependant, on la reconnaît de plus en plus comme un ensemble de compétences essentielles à l’ère de l’information. Les approches existantes à l’égard de la mesure de la littératie des données (des outils d’autoévaluation aux mesures objectives et des évaluations individuelles aux évaluations organisationnelles) sont analysées dans le présent rapport afin d’orienter l’élaboration d’un outil d’évaluation pour la littératie des données au sein de la fonction publique canadienne.

    Date de diffusion : 2019-08-14

  • Articles et rapports : 12-001-X201900200007
    Description :

    Quand on ajuste une variable catégorique ordonnée à L > 2 niveaux à un ensemble de covariables sur données d’enquêtes à plans complexes, on suppose communément que les éléments de la population suivent un modèle simple de régression logistique cumulative (modèle de régression logistique à cotes proportionnelles). Cela signifie que la probabilité que la variable catégorique se situe à un certain niveau ou au-dessous est une fonction logistique binaire des covariables du modèle. Ajoutons, sauf pour l’ordonnée à l’origine, les valeurs des paramètres de régression logistique sont les mêmes à chaque niveau. La méthode « fondée sur le plan » classique servant à ajuster le modèle à cotes proportionnelles est fondée sur le pseudo-maximum de vraisemblance. Nous comparons les estimations calculées par cette méthode à celles d’un traitement dans un cadre basé sur un modèle robuste sensible au plan. Nous indiquons par un simple exemple numérique en quoi les estimations tirées de ces deux traitements peuvent différer. La nouvelle méthode peut facilement s’élargir pour ajuster un modèle logistique cumulatif général où l’hypothèse du parallélisme peut ne pas se vérifier. Un test de cette hypothèse peut aisément s’ensuivre.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 11-633-X2018016
    Description :

    Le couplage d’enregistrements a été reconnu comme mécanisme possible pour inclure des renseignements sur les traitements dans le Registre canadien du cancer (RCC). Le Projet de couplage des données sur le traitement du cancer au Canada (PCDTCC) a pour objet d’ajouter des données sur les traitements chirurgicaux au RCC. La Base de données sur les congés des patients (BDCP) et le Système national d’information sur les soins ambulatoires (SNISA) ont été couplés au RCC, et les données sur les traitements chirurgicaux ont été extraites. Le projet a été financé dans le cadre de l’Initiative de développement concerté des données du Partenariat canadien contre le cancer.

    Le PCDTCC a été conçu comme une étude de faisabilité dans le cadre de laquelle les dossiers de patients contenus dans le RCC seraient couplés aux enregistrements sur les traitements chirurgicaux contenus dans la BDCP et le SNISA, tenus par l’Institut canadien d’information sur la santé. La cohorte cible pour le couplage des données sur les traitements chirurgicaux était les patients âgés de 19 ans ou plus inscrits au RCC (de 2010 à 2012). Le couplage a été fait dans l’Environnement de couplage de données sociales (ECDS) de Statistique Canada.

    Date de diffusion : 2018-03-27

  • Articles et rapports : 11-633-X2017005
    Description :

    Les taux d’hospitalisation font partie des statistiques couramment employées quand il est question de l’utilisation des services de soins de santé. La variété des méthodes de calcul des intervalles de confiance pour ces taux et d’autres taux liés à la santé porte à croire qu’il serait nécessaire de classifier, de comparer et d’évaluer ces méthodes. Zeno est un outil conçu pour calculer les intervalles de confiance des taux à partir de plusieurs formules disponibles dans la littérature. Le présent rapport présente le contenu de la page principale de l’outil Zeno et indique les formules à utiliser en fonction des hypothèses des utilisateurs et de la portée de l’analyse.

    Date de diffusion : 2017-01-19

  • Articles et rapports : 11-633-X2016003
    Description :

    De grandes cohortes de mortalité nationales sont utilisées pour estimer les taux de mortalité en fonction de différents groupes socioéconomiques et démographiques ainsi que pour effectuer des recherches dans le domaine de la santé environnementale. En 2008, Statistique Canada a créé une cohorte en couplant les données du Recensement de 1991 avec des données sur la mortalité. La présente étude décrit le couplage des données des répondants au questionnaire détaillé du Recensement de 2001 âgés de 19 ans et plus avec les données du Fichier maître des particuliers T1 et la Base de données combinées sur la mortalité. Ce couplage permet de faire le suivi de tous les décès survenus sur une période de 10,6 ans (soit pour le moment jusqu’à la fin de 2011).

    Date de diffusion : 2016-10-26

  • Articles et rapports : 82-003-X201300611796
    Géographie : Canada
    Description :

    La présente étude évalue la faisabilité d'utiliser des techniques de modélisation statistique pour combler les lacunes dans les données liées aux facteurs de risque, et plus particulièrement l'usage du tabac, dans les données de recensement couplées.

    Date de diffusion : 2013-06-19
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (13)

Analyses (13) (0 à 10 de 13 résultats)

  • Stats en bref : 89-20-00062022004
    Description :

    L’acquisition l’exploration, l’analyse et l’interprétation des données sont des étapes essentielles du processus permettant de produire des renseignements qui sont utiles pour la société, l’économie et l’environnement. Dans cette vidéo, nous discuterons de l’importance de tenir compte de l’éthique des données tout au long du processus de production de renseignements statistiques.

    Comme préalable à cette vidéo, assurez-vous d’avoir regardé la vidéo intitulée « L’éthique des données : Une introduction », qui se trouve également dans le catalogue d’apprentissage de l’Initiative de formation en littératie des données de Statistique Canada.

    Date de diffusion : 2022-10-17

  • Stats en bref : 89-20-00062022001
    Description :

    La collecte, l’exploration, l’analyse et l’interprétation des données sont des étapes essentielles de la production de renseignements qui profitent à la société, à l’économie et à l’environnement. Pour mener à bien ces processus, l'éthique des données doivent être assumées afin de garantir une utilisation appropriée des données.

    Date de diffusion : 2022-05-24

  • Stats en bref : 89-20-00062022002
    Description :

    Cette vidéo expliquera ce que signifie être FAIR en ce qui concerne les données et les métadonnées, et comment chaque pilier de FAIR sert à guider les utilisateurs et les producteurs dans le cheminement des données, afin de leur permettre d’obtenir une valeur maximale à long terme.

    Date de diffusion : 2022-05-24

  • Articles et rapports : 11-522-X202100100014
    Description : De récents développements des modes d’administration de questionnaires et d’extraction de données ont favorisé l’utilisation d’échantillons non probabilistes, qui présentent souvent un biais de sélection découlant d’un manque de plan de sondage ou de l’autosélection des participants. Ce biais peut être traité par plusieurs ajustements, dont l’applicabilité dépend du type d’information auxiliaire disponible. Des poids de calage peuvent être utilisés lorsque seuls des totaux de population de variables auxiliaires sont disponibles. En cas de disponibilité d’une enquête de référence respectant un plan de sondage probabiliste, plusieurs méthodes peuvent être appliquées, comme l’ajustement sur le score de propension, l’appariement statistique ou l’imputation de masse, ainsi que des estimateurs doublement robustes. En cas de disponibilité d’un recensement complet de la population cible pour certaines covariables auxiliaires, des estimateurs fondés sur des modèles de superpopulation (souvent utilisés en échantillonnage probabiliste) peuvent être adaptés au cas d’échantillonnage non probabiliste. Nous avons étudié la combinaison de certaines de ces méthodes, afin de produire des estimations moins biaisées et plus efficaces, ainsi que l’utilisation de techniques de prédiction modernes (comme la classification par apprentissage automatique et des algorithmes de régression) dans les étapes de modélisation des ajustements décrits. Nous avons en outre étudié l’utilisation de techniques de sélection de variables avant l’étape de modélisation de l’ajustement sur le score de propension. Les résultats indiquent que les ajustements fondés sur la combinaison de plusieurs méthodes peuvent améliorer l’efficacité des estimations et que l’utilisation de l’apprentissage automatique et de techniques de sélection de variables peut contribuer à réduire le biais et la variance des estimateurs dans une plus grande mesure dans plusieurs situations.

    Mots clés : échantillonnage non probabiliste; calage; ajustement sur le score de propension; appariement.

    Date de diffusion : 2021-10-15

  • Articles et rapports : 11-633-X2019003
    Description :

    Le présent rapport donne un aperçu des définitions et des cadres de compétence de la littératie des données, ainsi que des outils d’évaluation utilisés pour la mesurer. Tout cela est fondé sur la littérature existante et les pratiques actuelles dans le monde. La littératie des données, ou la capacité de tirer des renseignements utiles des données, est un concept relativement nouveau. Cependant, on la reconnaît de plus en plus comme un ensemble de compétences essentielles à l’ère de l’information. Les approches existantes à l’égard de la mesure de la littératie des données (des outils d’autoévaluation aux mesures objectives et des évaluations individuelles aux évaluations organisationnelles) sont analysées dans le présent rapport afin d’orienter l’élaboration d’un outil d’évaluation pour la littératie des données au sein de la fonction publique canadienne.

    Date de diffusion : 2019-08-14

  • Articles et rapports : 12-001-X201900200007
    Description :

    Quand on ajuste une variable catégorique ordonnée à L > 2 niveaux à un ensemble de covariables sur données d’enquêtes à plans complexes, on suppose communément que les éléments de la population suivent un modèle simple de régression logistique cumulative (modèle de régression logistique à cotes proportionnelles). Cela signifie que la probabilité que la variable catégorique se situe à un certain niveau ou au-dessous est une fonction logistique binaire des covariables du modèle. Ajoutons, sauf pour l’ordonnée à l’origine, les valeurs des paramètres de régression logistique sont les mêmes à chaque niveau. La méthode « fondée sur le plan » classique servant à ajuster le modèle à cotes proportionnelles est fondée sur le pseudo-maximum de vraisemblance. Nous comparons les estimations calculées par cette méthode à celles d’un traitement dans un cadre basé sur un modèle robuste sensible au plan. Nous indiquons par un simple exemple numérique en quoi les estimations tirées de ces deux traitements peuvent différer. La nouvelle méthode peut facilement s’élargir pour ajuster un modèle logistique cumulatif général où l’hypothèse du parallélisme peut ne pas se vérifier. Un test de cette hypothèse peut aisément s’ensuivre.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 11-633-X2018016
    Description :

    Le couplage d’enregistrements a été reconnu comme mécanisme possible pour inclure des renseignements sur les traitements dans le Registre canadien du cancer (RCC). Le Projet de couplage des données sur le traitement du cancer au Canada (PCDTCC) a pour objet d’ajouter des données sur les traitements chirurgicaux au RCC. La Base de données sur les congés des patients (BDCP) et le Système national d’information sur les soins ambulatoires (SNISA) ont été couplés au RCC, et les données sur les traitements chirurgicaux ont été extraites. Le projet a été financé dans le cadre de l’Initiative de développement concerté des données du Partenariat canadien contre le cancer.

    Le PCDTCC a été conçu comme une étude de faisabilité dans le cadre de laquelle les dossiers de patients contenus dans le RCC seraient couplés aux enregistrements sur les traitements chirurgicaux contenus dans la BDCP et le SNISA, tenus par l’Institut canadien d’information sur la santé. La cohorte cible pour le couplage des données sur les traitements chirurgicaux était les patients âgés de 19 ans ou plus inscrits au RCC (de 2010 à 2012). Le couplage a été fait dans l’Environnement de couplage de données sociales (ECDS) de Statistique Canada.

    Date de diffusion : 2018-03-27

  • Articles et rapports : 11-633-X2017005
    Description :

    Les taux d’hospitalisation font partie des statistiques couramment employées quand il est question de l’utilisation des services de soins de santé. La variété des méthodes de calcul des intervalles de confiance pour ces taux et d’autres taux liés à la santé porte à croire qu’il serait nécessaire de classifier, de comparer et d’évaluer ces méthodes. Zeno est un outil conçu pour calculer les intervalles de confiance des taux à partir de plusieurs formules disponibles dans la littérature. Le présent rapport présente le contenu de la page principale de l’outil Zeno et indique les formules à utiliser en fonction des hypothèses des utilisateurs et de la portée de l’analyse.

    Date de diffusion : 2017-01-19

  • Articles et rapports : 11-633-X2016003
    Description :

    De grandes cohortes de mortalité nationales sont utilisées pour estimer les taux de mortalité en fonction de différents groupes socioéconomiques et démographiques ainsi que pour effectuer des recherches dans le domaine de la santé environnementale. En 2008, Statistique Canada a créé une cohorte en couplant les données du Recensement de 1991 avec des données sur la mortalité. La présente étude décrit le couplage des données des répondants au questionnaire détaillé du Recensement de 2001 âgés de 19 ans et plus avec les données du Fichier maître des particuliers T1 et la Base de données combinées sur la mortalité. Ce couplage permet de faire le suivi de tous les décès survenus sur une période de 10,6 ans (soit pour le moment jusqu’à la fin de 2011).

    Date de diffusion : 2016-10-26

  • Articles et rapports : 82-003-X201300611796
    Géographie : Canada
    Description :

    La présente étude évalue la faisabilité d'utiliser des techniques de modélisation statistique pour combler les lacunes dans les données liées aux facteurs de risque, et plus particulièrement l'usage du tabac, dans les données de recensement couplées.

    Date de diffusion : 2013-06-19
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :