Techniques statistiques

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

1 facets displayed. 0 facets selected.

Enquête ou programme statistique

1 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (11)

Tout (11) (0 à 10 de 11 résultats)

  • Articles et rapports : 12-001-X202100200002
    Description :

    Dans le couplage d’ensembles de données massifs, on a recours aux pochettes pour sélectionner un sous-ensemble gérable de paires d’enregistrements quitte à perdre quelques paires appariées. Cette perte tient une grande place dans l’erreur de couplage globale, parce que les décisions relatives aux pochettes se prennent tôt dans le processus sans qu’on puisse les réviser par la suite. Mesurer le rôle que joue cette perte demeure un grand défi si on considère la nécessité de modéliser toutes les paires dans le produit cartésien des sources, et non seulement celles qui répondent aux critères des pochettes. Malheureusement, les modèles antérieurs d’erreur ne nous aident guère parce qu’ils ne respectent normalement pas cette exigence. Il sera question ici d’un nouveau modèle de mélange fini, qui ne demande ni vérifications manuelles, ni données d’entraînement, ni hypothèse d’indépendance conditionnelle des variables de couplage. Il s’applique dans le cadre d’une procédure de pochettes typique dans le couplage d’un fichier avec un registre ou un recensement exhaustif lorsque ces deux sources sont exemptes d’enregistrements en double.

    Date de diffusion : 2022-01-06

  • Articles et rapports : 11-522-X202100100008
    Description :

    Les organismes nationaux de statistique étudient de plus en plus la possibilité d'utiliser des échantillons non probabilistes en complément des échantillons probabilistes. Nous examinons le scénario où la variable d’intérêt et les variables auxiliaires sont observées à la fois dans un échantillon probabiliste et un échantillon non probabiliste. Nous cherchons à utiliser les données de l’échantillon non probabiliste pour améliorer l’efficacité des estimations pondérées par les poids d’enquête obtenues à partir de l’échantillon probabiliste. Récemment, Sakshaug, Wisniowski, Ruiz et Blom (2019) et Wisniowski, Sakshaug, Ruiz et Blom (2020) ont proposé une approche bayésienne visant à intégrer les données des deux échantillons aux fins de l’estimation des paramètres du modèle. Dans leur méthode, on utilise les données de l’échantillon non probabiliste pour déterminer la distribution a priori des paramètres du modèle et on obtient la distribution a posteriori en supposant que le plan de sondage probabiliste est ignorable (ou non informatif). Nous étendons cette approche bayésienne à la prédiction de paramètres d’une population finie dans le cadre d’un échantillonnage non ignorable (ou informatif) en nous appuyant sur des statistiques pondérées par des poids d’enquête appropriées. Nous illustrons les propriétés de notre prédicteur au moyen d’une étude par simulations.

    Mots clés : prédiction bayésienne; échantillonnage de Gibbs; échantillonnage non ignorable; intégration des données statistiques.

    Date de diffusion : 2021-10-29

  • Articles et rapports : 11-522-X202100100006
    Description :

    Dans le contexte de son paradigme « données administratives d’abord », Statistique Canada donne la priorité à l’utilisation de sources autres que les enquêtes pour produire des statistiques officielles. Ce paradigme repose de façon capitale sur des sources autres que les enquêtes pouvant fournir une couverture quasi parfaite de certaines populations cibles, y compris des fichiers administratifs ou des sources de mégadonnées. Toutefois, cette couverture doit être mesurée, en appliquant par exemple la méthode de capture-recapture, selon laquelle les données sont comparées à d’autres sources présentant une bonne couverture des mêmes populations, y compris un recensement. Cependant, il s’agit d’un exercice difficile en présence d’erreurs de couplage, qui surviennent inévitablement lorsque le couplage se fonde sur des quasi-identificateurs, comme cela est généralement le cas. Pour faire face à cet enjeu, une nouvelle méthodologie est décrite, selon laquelle la méthode de capture-recapture est améliorée grâce à un nouveau modèle d’erreur fondé sur le nombre de couplages contigus à un enregistrement donné. Elle est appliquée dans le cadre d’une expérience avec des données publiques de recensement.

    Mots clés : estimation de système dual; appariement de données; couplage d’enregistrements; qualité; intégration des données; mégadonnées.

    Date de diffusion : 2021-10-22

  • Articles et rapports : 11-522-X202100100017
    Description : L’apparition de la pandémie de COVID-19 a contraint le gouvernement du Canada à fournir des renseignements pertinents et actuels pour appuyer la prise de décisions sur nombre de questions, notamment l’acquisition et le déploiement d’équipements de protection individuelle (EPI). Notre équipe a élaboré un modèle épidémiologique compartimental à partir d’une base de code existante pour projeter la demande d’EPI dans plusieurs scénarios épidémiologiques. Ce modèle a été ensuite amélioré au moyen de techniques de science des données, ce qui a permis de rapidement élaborer et diffuser les résultats du modèle pour éclairer les décisions stratégiques.

    Mots clés : COVID-19; SARS-CoV-2; modèle épidémiologique; science des données; équipement de protection individuelle (EPI); SEIR

    Date de diffusion : 2021-10-22

  • Articles et rapports : 11-633-X2019004
    Description :

    La présente étude montre comment estimer l’effet de la frontière canado-américaine sur le commerce de marchandises non énergétiques au niveau infraprovincial et au sein des États en utilisant le Fichier des transports terrestres de Statistique Canada et des données sur le commerce intérieur des États-Unis. Dans le cadre de l’étude, on a recours à un cadre de modèle gravitationnel afin de comparer les flux commerciaux transfrontaliers et intérieurs au sein de 201 régions du Canada et des États-Unis au cours de l’année 2012. L’étude permet de montrer que quelque 25 ans après la ratification de l’Accord de libre-échange Canada–États-Unis (prédécesseur de l’Accord de libre-échange nord-américain), le coût du commerce transfrontalier des marchandises représente toujours des droits tarifaires de 30 % sur le commerce bilatéral entre les régions du Canada et des États-Unis. La présente étude permet également de montrer la façon d’utiliser ces estimations ainsi que des méthodes générales d’équilibre de pseudo maximum de vraisemblance de Poisson pour décrire l’effet de changements dans les coûts liés à la frontière sur les structures du commerce nord-américain et du bien-être régional.

    Date de diffusion : 2019-09-24

  • Articles et rapports : 12-001-X201800154927
    Description :

    L’étalonnage des séries mensuelles et trimestrielles à des données annuelles est une pratique courante adoptée par de nombreux instituts nationaux de statistique. Le problème de l’étalonnage se pose quand des données temporelles pour une même variable cible sont mesurées à différentes fréquences et qu’il est nécessaire d’éliminer les différences entre les sommes des valeurs infra-annuelles et les valeurs annuelles de référence. Plusieurs méthodes d’étalonnage sont décrites dans la littérature. La procédure d’étalonnage avec préservation des taux de croissance (PTC) est souvent considérée comme étant la meilleure. Il est généralement soutenu qu’elle a pour fondement un principe idéal de préservation du mouvement. Toutefois, nous montrons que l’étalonnage PTC présente des inconvénients appréciables qui importent pour les applications pratiques et qui ne sont pas décrits dans la littérature. Nous considérons d’autres modèles d’étalonnage qui ne souffrent pas de certains des effets indésirables de la PTC.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X20050018083
    Description :

    L'élaboration de la méthodologie de couplage informatisé d'enregistrements a facilité la réalisation d'études cohorte de mortalité dans lesquelles les données sur l'exposition provenant d'une base de données sont couplées électroniquement à celles sur la mortalité provenant d'une autre base de données. Cependant, cette méthode donne lieu à des erreurs de couplage causées par l'appariement incorrect d'une personne figurant dans l'une des bases de données à une personne différente dans l'autre base de données. Dans le présent article, nous examinons l'effet des erreurs de couplage sur les estimations d'indicateurs épidémiologiques du risque, comme les ratios standardisés de mortalité et les paramètres des modèles de régression du risque relatif. Nous montrons que les effets sur les nombres observé et attendu de décès sont de sens opposé et que, par conséquent, ces indicateurs peuvent présenter un biais et une variabilité supplémentaire en présence d'erreurs de couplage.

    Date de diffusion : 2005-07-21

  • Enquêtes et programmes statistiques — Documentation : 89-612-X
    Description :

    Ce rapport comprend une description de la structure et du couplage de deux bases de données : la Banque de données administratives longitudinales (DAL) et la Base de données longitudinales sur les immigrants (BDIM). La combinaison des deux produits offre un fichier couplé de données fiscales sur les immigrants ayant obtenu le droit d'établissement et leurs données caractéristiques sur l'immigration. Le rapport souligne la façon de combiner l'information, référé ici comme DAL_BDIM, améliore et complète les bases de données actuelles et distinctes. Dans ce rapport, on compare le fichier complet de la BDIM avec l'échantillon d'immigrants pour évaluer la représentativité du fichier de l'échantillon.

    Date de diffusion : 2004-01-05

  • Articles et rapports : 12-001-X20030016609
    Description :

    Pour automatiser le processus de vérification des données, il faut résoudre le problème de localisation des erreurs, c'est-à-dire la détermination des zones erronées dans un enregistrement incorrect. En 1976, Fellegi et Holt ont proposé un paradigme pour repérer automatiquement les erreurs. Au fil des ans, ce paradigme a été généralisé pour s'énoncer comme suit : on devrait, pour que les données d'un enregistrement satisfassent à toutes les règles de vérification, modifier les valeurs des variables dont la somme des poids de fiabilité est la plus faible possible. Par poids de fiabilité d'une variable, nous entendons un nombre non négatif précisant dans quelle mesure la valeur de cette variable est jugée fiable. Étant donné ce paradigme, il faut résoudre le problème mathématique résultant. Nous examinons ici comment les méthodes de génération de sommets peuvent être utilisées pour résoudre ce problème mathématique dans le cas de données mixtes, c'est-à-dire une combinaison de données catégoriques (discrètes) et numériques (continues). Le but principal de l'article n'est pas de présenter de nouveaux résultats, mais plutôt de combiner les idées de plusieurs auteurs afin de donner une description « complète », intégrée, de l'utilisation des méthodes de génération de sommets pour résoudre le problème de localisation des erreurs dans le cas de données mixtes. Nous décrirons surtout dans notre exposé la façon dont on peut adapter aux données mixtes les méthodes élaborées pour des données numériques.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X19980013910
    Description :

    Soit A, le domaine de la population auquel on s’intéresse. Supposons qu’il est impossible d’identifier les éléments de A dans la base de sondage et qu’on ignore le nombre d’éléments que contient A. Supposons en outre qu’on prélève un échantillon de taille fixe (n par exemple) de la base de sondage et que la taille de l’échantillon du domaine résultant (appelons-la n_A) soit aléatoire. Le problème consiste à bâtir un intervalle de confiance pour un paramètre du domaine tel que 1’agrégat du domaine T_A = \sum_{i \in A} x_i. Habituellement, la solution consiste à redéfinir x_i en établissant x_i = 0 si i \notin A. Au lieu de construire un intervalle de confiance pour le total du domaine, on en construit donc un pour un total de la population, ce que permet de satisfaire la théorie de la distribution normale (de façon asymptotique pour n). Une autre solution consisterait à imposer des conditions à n_A et à bâtir des intervalles de confiance à couverture presque nominale, avec certaines hypothèses se rapportant à la population du domaine. Les auteurs évaluent la nouvelle approche de manière empirique au moyen de populations artificielles et des données de l’Occupational Compensation Survey du Bureau of Labor Statistics (BLS).

    Date de diffusion : 1998-07-31
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (10)

Analyses (10) ((10 résultats))

  • Articles et rapports : 12-001-X202100200002
    Description :

    Dans le couplage d’ensembles de données massifs, on a recours aux pochettes pour sélectionner un sous-ensemble gérable de paires d’enregistrements quitte à perdre quelques paires appariées. Cette perte tient une grande place dans l’erreur de couplage globale, parce que les décisions relatives aux pochettes se prennent tôt dans le processus sans qu’on puisse les réviser par la suite. Mesurer le rôle que joue cette perte demeure un grand défi si on considère la nécessité de modéliser toutes les paires dans le produit cartésien des sources, et non seulement celles qui répondent aux critères des pochettes. Malheureusement, les modèles antérieurs d’erreur ne nous aident guère parce qu’ils ne respectent normalement pas cette exigence. Il sera question ici d’un nouveau modèle de mélange fini, qui ne demande ni vérifications manuelles, ni données d’entraînement, ni hypothèse d’indépendance conditionnelle des variables de couplage. Il s’applique dans le cadre d’une procédure de pochettes typique dans le couplage d’un fichier avec un registre ou un recensement exhaustif lorsque ces deux sources sont exemptes d’enregistrements en double.

    Date de diffusion : 2022-01-06

  • Articles et rapports : 11-522-X202100100008
    Description :

    Les organismes nationaux de statistique étudient de plus en plus la possibilité d'utiliser des échantillons non probabilistes en complément des échantillons probabilistes. Nous examinons le scénario où la variable d’intérêt et les variables auxiliaires sont observées à la fois dans un échantillon probabiliste et un échantillon non probabiliste. Nous cherchons à utiliser les données de l’échantillon non probabiliste pour améliorer l’efficacité des estimations pondérées par les poids d’enquête obtenues à partir de l’échantillon probabiliste. Récemment, Sakshaug, Wisniowski, Ruiz et Blom (2019) et Wisniowski, Sakshaug, Ruiz et Blom (2020) ont proposé une approche bayésienne visant à intégrer les données des deux échantillons aux fins de l’estimation des paramètres du modèle. Dans leur méthode, on utilise les données de l’échantillon non probabiliste pour déterminer la distribution a priori des paramètres du modèle et on obtient la distribution a posteriori en supposant que le plan de sondage probabiliste est ignorable (ou non informatif). Nous étendons cette approche bayésienne à la prédiction de paramètres d’une population finie dans le cadre d’un échantillonnage non ignorable (ou informatif) en nous appuyant sur des statistiques pondérées par des poids d’enquête appropriées. Nous illustrons les propriétés de notre prédicteur au moyen d’une étude par simulations.

    Mots clés : prédiction bayésienne; échantillonnage de Gibbs; échantillonnage non ignorable; intégration des données statistiques.

    Date de diffusion : 2021-10-29

  • Articles et rapports : 11-522-X202100100006
    Description :

    Dans le contexte de son paradigme « données administratives d’abord », Statistique Canada donne la priorité à l’utilisation de sources autres que les enquêtes pour produire des statistiques officielles. Ce paradigme repose de façon capitale sur des sources autres que les enquêtes pouvant fournir une couverture quasi parfaite de certaines populations cibles, y compris des fichiers administratifs ou des sources de mégadonnées. Toutefois, cette couverture doit être mesurée, en appliquant par exemple la méthode de capture-recapture, selon laquelle les données sont comparées à d’autres sources présentant une bonne couverture des mêmes populations, y compris un recensement. Cependant, il s’agit d’un exercice difficile en présence d’erreurs de couplage, qui surviennent inévitablement lorsque le couplage se fonde sur des quasi-identificateurs, comme cela est généralement le cas. Pour faire face à cet enjeu, une nouvelle méthodologie est décrite, selon laquelle la méthode de capture-recapture est améliorée grâce à un nouveau modèle d’erreur fondé sur le nombre de couplages contigus à un enregistrement donné. Elle est appliquée dans le cadre d’une expérience avec des données publiques de recensement.

    Mots clés : estimation de système dual; appariement de données; couplage d’enregistrements; qualité; intégration des données; mégadonnées.

    Date de diffusion : 2021-10-22

  • Articles et rapports : 11-522-X202100100017
    Description : L’apparition de la pandémie de COVID-19 a contraint le gouvernement du Canada à fournir des renseignements pertinents et actuels pour appuyer la prise de décisions sur nombre de questions, notamment l’acquisition et le déploiement d’équipements de protection individuelle (EPI). Notre équipe a élaboré un modèle épidémiologique compartimental à partir d’une base de code existante pour projeter la demande d’EPI dans plusieurs scénarios épidémiologiques. Ce modèle a été ensuite amélioré au moyen de techniques de science des données, ce qui a permis de rapidement élaborer et diffuser les résultats du modèle pour éclairer les décisions stratégiques.

    Mots clés : COVID-19; SARS-CoV-2; modèle épidémiologique; science des données; équipement de protection individuelle (EPI); SEIR

    Date de diffusion : 2021-10-22

  • Articles et rapports : 11-633-X2019004
    Description :

    La présente étude montre comment estimer l’effet de la frontière canado-américaine sur le commerce de marchandises non énergétiques au niveau infraprovincial et au sein des États en utilisant le Fichier des transports terrestres de Statistique Canada et des données sur le commerce intérieur des États-Unis. Dans le cadre de l’étude, on a recours à un cadre de modèle gravitationnel afin de comparer les flux commerciaux transfrontaliers et intérieurs au sein de 201 régions du Canada et des États-Unis au cours de l’année 2012. L’étude permet de montrer que quelque 25 ans après la ratification de l’Accord de libre-échange Canada–États-Unis (prédécesseur de l’Accord de libre-échange nord-américain), le coût du commerce transfrontalier des marchandises représente toujours des droits tarifaires de 30 % sur le commerce bilatéral entre les régions du Canada et des États-Unis. La présente étude permet également de montrer la façon d’utiliser ces estimations ainsi que des méthodes générales d’équilibre de pseudo maximum de vraisemblance de Poisson pour décrire l’effet de changements dans les coûts liés à la frontière sur les structures du commerce nord-américain et du bien-être régional.

    Date de diffusion : 2019-09-24

  • Articles et rapports : 12-001-X201800154927
    Description :

    L’étalonnage des séries mensuelles et trimestrielles à des données annuelles est une pratique courante adoptée par de nombreux instituts nationaux de statistique. Le problème de l’étalonnage se pose quand des données temporelles pour une même variable cible sont mesurées à différentes fréquences et qu’il est nécessaire d’éliminer les différences entre les sommes des valeurs infra-annuelles et les valeurs annuelles de référence. Plusieurs méthodes d’étalonnage sont décrites dans la littérature. La procédure d’étalonnage avec préservation des taux de croissance (PTC) est souvent considérée comme étant la meilleure. Il est généralement soutenu qu’elle a pour fondement un principe idéal de préservation du mouvement. Toutefois, nous montrons que l’étalonnage PTC présente des inconvénients appréciables qui importent pour les applications pratiques et qui ne sont pas décrits dans la littérature. Nous considérons d’autres modèles d’étalonnage qui ne souffrent pas de certains des effets indésirables de la PTC.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X20050018083
    Description :

    L'élaboration de la méthodologie de couplage informatisé d'enregistrements a facilité la réalisation d'études cohorte de mortalité dans lesquelles les données sur l'exposition provenant d'une base de données sont couplées électroniquement à celles sur la mortalité provenant d'une autre base de données. Cependant, cette méthode donne lieu à des erreurs de couplage causées par l'appariement incorrect d'une personne figurant dans l'une des bases de données à une personne différente dans l'autre base de données. Dans le présent article, nous examinons l'effet des erreurs de couplage sur les estimations d'indicateurs épidémiologiques du risque, comme les ratios standardisés de mortalité et les paramètres des modèles de régression du risque relatif. Nous montrons que les effets sur les nombres observé et attendu de décès sont de sens opposé et que, par conséquent, ces indicateurs peuvent présenter un biais et une variabilité supplémentaire en présence d'erreurs de couplage.

    Date de diffusion : 2005-07-21

  • Articles et rapports : 12-001-X20030016609
    Description :

    Pour automatiser le processus de vérification des données, il faut résoudre le problème de localisation des erreurs, c'est-à-dire la détermination des zones erronées dans un enregistrement incorrect. En 1976, Fellegi et Holt ont proposé un paradigme pour repérer automatiquement les erreurs. Au fil des ans, ce paradigme a été généralisé pour s'énoncer comme suit : on devrait, pour que les données d'un enregistrement satisfassent à toutes les règles de vérification, modifier les valeurs des variables dont la somme des poids de fiabilité est la plus faible possible. Par poids de fiabilité d'une variable, nous entendons un nombre non négatif précisant dans quelle mesure la valeur de cette variable est jugée fiable. Étant donné ce paradigme, il faut résoudre le problème mathématique résultant. Nous examinons ici comment les méthodes de génération de sommets peuvent être utilisées pour résoudre ce problème mathématique dans le cas de données mixtes, c'est-à-dire une combinaison de données catégoriques (discrètes) et numériques (continues). Le but principal de l'article n'est pas de présenter de nouveaux résultats, mais plutôt de combiner les idées de plusieurs auteurs afin de donner une description « complète », intégrée, de l'utilisation des méthodes de génération de sommets pour résoudre le problème de localisation des erreurs dans le cas de données mixtes. Nous décrirons surtout dans notre exposé la façon dont on peut adapter aux données mixtes les méthodes élaborées pour des données numériques.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X19980013910
    Description :

    Soit A, le domaine de la population auquel on s’intéresse. Supposons qu’il est impossible d’identifier les éléments de A dans la base de sondage et qu’on ignore le nombre d’éléments que contient A. Supposons en outre qu’on prélève un échantillon de taille fixe (n par exemple) de la base de sondage et que la taille de l’échantillon du domaine résultant (appelons-la n_A) soit aléatoire. Le problème consiste à bâtir un intervalle de confiance pour un paramètre du domaine tel que 1’agrégat du domaine T_A = \sum_{i \in A} x_i. Habituellement, la solution consiste à redéfinir x_i en établissant x_i = 0 si i \notin A. Au lieu de construire un intervalle de confiance pour le total du domaine, on en construit donc un pour un total de la population, ce que permet de satisfaire la théorie de la distribution normale (de façon asymptotique pour n). Une autre solution consisterait à imposer des conditions à n_A et à bâtir des intervalles de confiance à couverture presque nominale, avec certaines hypothèses se rapportant à la population du domaine. Les auteurs évaluent la nouvelle approche de manière empirique au moyen de populations artificielles et des données de l’Occupational Compensation Survey du Bureau of Labor Statistics (BLS).

    Date de diffusion : 1998-07-31

  • Articles et rapports : 11F0019M1996091
    Géographie : Province ou territoire
    Description :

    Introduction : Le contexte économique actuel oblige tous les partenaires des réseaux de soins de santé, qu'ils soient publics ou privés, à identifier les facteurs qui conditionnent l'utilisation des services de soins de santé. Pour améliorer notre compréhension des phénomènes qui sous-tendent ces relations, Statistique Canada et le Manitoba Centre for Health Policy and Evaluation viennent de mettre sur pied une nouvelle base de données. Pour un échantillon représentatif de la province du Manitoba, des microdonnées transversales portant sur le niveau de santé des individus, sur leurs caractéristiques socio-économiques et des données longitudinales détaillées portant sur l'utilisation des services de soins de santé ont été couplées.

    Données et méthodes : L'enquête sur la santé et les limitations d'activités de 1986-87, le recensement de 1986 et les dossiers de la Manitoba Health ont été couplés (sans utilisation de noms ou d'adresses) en utilisant le progiciel CANLINK. Dans le cadre du projet pilote 20 000 unités de base ont été sélectionnées selon des techniques d'échantillonnage modernes pour constituer la base de données. Préalablement à l'appariement des fichiers, des consultations ont été tenues afin d'établir un cadre visant à protéger la vie privée et à préserver la confidentialité des données.

    Résultat : Un taux de couplage de 74 % a été obtenu pour les ménages privés. Une évaluation de la qualité basée sur la comparaison de noms et d'adresses a permis d'établir que le taux global de concordance parmi les paires appariées est de 95,5 %. Le taux d'appariement de même que le taux de concordance varient selon l'âge et la composition du ménage. Les estimations produites à partir de l'échantillon reflètent bien le profil socio-démographique, la mortalité, l'hospitalisation, les coûts et la consommation de soins de santé des résidents du Manitoba.

    Discussion : Le taux de couplage de 74 % s'avère satisfaisant en comparaison du taux de réponses rapporté dans la plupart des enquêtes auprès de la population. En raison de l'excellence du taux de concordance et de la précision des estimations provenant de l'échantillon, cette base de données va permettre d'étudier adéquatement l'association entre les composantes socio-démographiques, la santé et l'utilisation des soins de santé pour la province de Manitoba.

    Date de diffusion : 1996-03-30
Références (1)

Références (1) ((1 résultat))

  • Enquêtes et programmes statistiques — Documentation : 89-612-X
    Description :

    Ce rapport comprend une description de la structure et du couplage de deux bases de données : la Banque de données administratives longitudinales (DAL) et la Base de données longitudinales sur les immigrants (BDIM). La combinaison des deux produits offre un fichier couplé de données fiscales sur les immigrants ayant obtenu le droit d'établissement et leurs données caractéristiques sur l'immigration. Le rapport souligne la façon de combiner l'information, référé ici comme DAL_BDIM, améliore et complète les bases de données actuelles et distinctes. Dans ce rapport, on compare le fichier complet de la BDIM avec l'échantillon d'immigrants pour évaluer la représentativité du fichier de l'échantillon.

    Date de diffusion : 2004-01-05
Date de modification :