Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (5)

Tout (5) ((5 résultats))

  • Articles et rapports : 12-001-X201400214091
    Description :

    L’imputation fractionnaire paramétrique (IFP) proposée par Kim (2011) est un outil d’estimation des paramètres à usage général en cas de données manquantes. Nous proposons une imputation fractionnaire hot deck (IFHD), qui est plus robuste que l’IFP ou l’imputation multiple. Selon la méthode proposée, les valeurs imputées sont choisies parmi l’ensemble des répondants, et des pondérations fractionnaires appropriées leur sont assignées. Les pondérations sont ensuite ajustées pour répondre à certaines conditions de calage, ce qui garantit l’efficacité de l’estimateur IFHD résultant. Deux études de simulation sont présentées afin de comparer la méthode proposée aux méthodes existantes.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201100111448
    Description :

    Dans l'échantillonnage à deux phases pour la stratification, l'échantillon de deuxième phase est sélectionné selon un plan stratifié basé sur l'information observée sur l'échantillon de première phase. Nous élaborons un estimateur de variance corrigé du biais fondé sur une méthode de répliques qui étend la méthode de Kim, Navarro et Fuller (2006). La méthode proposée est également applicable quand la fraction d'échantillonnage de première phase n'est pas négligeable et que le tirage de l'échantillon de deuxième phase se fait par échantillonnage de Poisson avec probabilités inégales dans chaque strate. La méthode proposée peut être étendue à l'estimation de la variance pour les estimateurs par la régression à deux phases. Les résultats d'une étude par simulation limitée sont présentés.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 12-001-X201000111249
    Description :

    Dans le cas de nombreux plans de sondage, la probabilité de sélectionner un échantillon qui produira de mauvaises estimations pour des quantités connues n'est pas nulle. L'échantillonnage aléatoire stratifié permet de réduire l'ensemble de ces échantillons éventuels en fixant la taille de l'échantillon dans chaque strate. Cependant, l'obtention d'échantillons indésirables demeure possible après la stratification. L'échantillonnage réjectif permet d'éliminer les échantillons donnant de mauvais résultats en ne retenant un échantillon que si des fonctions spécifiées des estimations sont comprises entre des limites de tolérance par rapport aux valeurs connues. Les échantillons résultant sont souvent dits équilibrés sur la fonction des variables utilisées dans la méthode de rejet. Nous présentons des modifications de la méthode de rejet de Fuller (2009a) qui donnent plus de souplesse aux règles de rejet. Au moyen de simulations, nous comparons les propriétés des estimations obtenues en suivant une méthode d'échantillonnage réjectif, d'une part, et une procédure d'échantillonnage par la méthode du cube, d'autre part.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X19970013103
    Description :

    Les auteurs décrivent certaines méthodes diagnostiques simples utilisées pour guider la construction de cellules de correction pour la non-réponse. S'inspirant des travaux de Little (1986), ils étudient la construction de cellules de correction par regroupement d'unités d'échantillonnage selon la probabilité estimée de réponse ou selon la réponse estimée aux questions de l'enquête. Ils examinent plus particulièrement l'évaluation de la sensibilité des estimations corrigées de la moyenne à la variation de k, c'est-à-dire le nombre de cellules utilisées, le dépistage de cellules particulières qui nécessitent une mise au point supplémentaire, la comparaison des estimations corrigées et non corrigées de la moyenne et la comparaison des estimations obtenues au moyen des cellules fondées sur la probabilité estimée de réponse, d'une part, et sur la réponse estimée aux questions, d'autre part. Les auteurs justifient les méthodes proposées et les illustrent par une application à l'estimation du revenu moyen des unités de la U.S. Consumer Expenditure Survey.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X199200114492
    Description :

    Nous considérons dans cet article le scénario d’une enquête par sondage ayant les deux objectifs principaux suivants : 1) l’identification, pour des études de suivi ultérieures, de n^* -sujets dans chacun des H sous-domaines et 2) l’estimation, au moment où on en est dans le déroulement de l’enquête, du niveau d’un caractère quelconque dans chacun de ces sous-domaines. Pour cette enquête, le plan de sondage doit se limiter à un échantillonnage par grappes à un seul degré, ce qui constitue une contrainte supplémentaire. Levy et coll. 1989, ont proposé une variante de l’échantillonnage par grappes à un seul degré, appelée échantillonnage par grappes à un seul degré étagé (ÉGSDÉ), comme moyen économique d’identifier n^* -sujets dans chacun des sous-domaines. Dans cet article-ci, nous étudions les propriétés statistiques de l’ÉGSDÉ pour l’estimation transversale du niveau d’un caractère dans la population. En particulier, la fiabilité d’estimations obtenues, à un coût donné, à l’aide de l’ÉGSDÉ est comparée à celle des estimations obtenues au même coût à l’aide de l’échantillonnage par grappes à un seul degré ordinaire (ÉGSDO). Nous avons été motivés par les problèmes rencontrés au cours de la conception statistique de l’Enquête de Shanghai sur la maladie d’Alzheimer et la démence (ESMAD), une étude épidémiologique de la prévalence et de l’incidence de la maladie d’Alzheimer et de la démence.

    Date de diffusion : 1992-06-15
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (5)

Analyses (5) ((5 résultats))

  • Articles et rapports : 12-001-X201400214091
    Description :

    L’imputation fractionnaire paramétrique (IFP) proposée par Kim (2011) est un outil d’estimation des paramètres à usage général en cas de données manquantes. Nous proposons une imputation fractionnaire hot deck (IFHD), qui est plus robuste que l’IFP ou l’imputation multiple. Selon la méthode proposée, les valeurs imputées sont choisies parmi l’ensemble des répondants, et des pondérations fractionnaires appropriées leur sont assignées. Les pondérations sont ensuite ajustées pour répondre à certaines conditions de calage, ce qui garantit l’efficacité de l’estimateur IFHD résultant. Deux études de simulation sont présentées afin de comparer la méthode proposée aux méthodes existantes.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201100111448
    Description :

    Dans l'échantillonnage à deux phases pour la stratification, l'échantillon de deuxième phase est sélectionné selon un plan stratifié basé sur l'information observée sur l'échantillon de première phase. Nous élaborons un estimateur de variance corrigé du biais fondé sur une méthode de répliques qui étend la méthode de Kim, Navarro et Fuller (2006). La méthode proposée est également applicable quand la fraction d'échantillonnage de première phase n'est pas négligeable et que le tirage de l'échantillon de deuxième phase se fait par échantillonnage de Poisson avec probabilités inégales dans chaque strate. La méthode proposée peut être étendue à l'estimation de la variance pour les estimateurs par la régression à deux phases. Les résultats d'une étude par simulation limitée sont présentés.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 12-001-X201000111249
    Description :

    Dans le cas de nombreux plans de sondage, la probabilité de sélectionner un échantillon qui produira de mauvaises estimations pour des quantités connues n'est pas nulle. L'échantillonnage aléatoire stratifié permet de réduire l'ensemble de ces échantillons éventuels en fixant la taille de l'échantillon dans chaque strate. Cependant, l'obtention d'échantillons indésirables demeure possible après la stratification. L'échantillonnage réjectif permet d'éliminer les échantillons donnant de mauvais résultats en ne retenant un échantillon que si des fonctions spécifiées des estimations sont comprises entre des limites de tolérance par rapport aux valeurs connues. Les échantillons résultant sont souvent dits équilibrés sur la fonction des variables utilisées dans la méthode de rejet. Nous présentons des modifications de la méthode de rejet de Fuller (2009a) qui donnent plus de souplesse aux règles de rejet. Au moyen de simulations, nous comparons les propriétés des estimations obtenues en suivant une méthode d'échantillonnage réjectif, d'une part, et une procédure d'échantillonnage par la méthode du cube, d'autre part.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X19970013103
    Description :

    Les auteurs décrivent certaines méthodes diagnostiques simples utilisées pour guider la construction de cellules de correction pour la non-réponse. S'inspirant des travaux de Little (1986), ils étudient la construction de cellules de correction par regroupement d'unités d'échantillonnage selon la probabilité estimée de réponse ou selon la réponse estimée aux questions de l'enquête. Ils examinent plus particulièrement l'évaluation de la sensibilité des estimations corrigées de la moyenne à la variation de k, c'est-à-dire le nombre de cellules utilisées, le dépistage de cellules particulières qui nécessitent une mise au point supplémentaire, la comparaison des estimations corrigées et non corrigées de la moyenne et la comparaison des estimations obtenues au moyen des cellules fondées sur la probabilité estimée de réponse, d'une part, et sur la réponse estimée aux questions, d'autre part. Les auteurs justifient les méthodes proposées et les illustrent par une application à l'estimation du revenu moyen des unités de la U.S. Consumer Expenditure Survey.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X199200114492
    Description :

    Nous considérons dans cet article le scénario d’une enquête par sondage ayant les deux objectifs principaux suivants : 1) l’identification, pour des études de suivi ultérieures, de n^* -sujets dans chacun des H sous-domaines et 2) l’estimation, au moment où on en est dans le déroulement de l’enquête, du niveau d’un caractère quelconque dans chacun de ces sous-domaines. Pour cette enquête, le plan de sondage doit se limiter à un échantillonnage par grappes à un seul degré, ce qui constitue une contrainte supplémentaire. Levy et coll. 1989, ont proposé une variante de l’échantillonnage par grappes à un seul degré, appelée échantillonnage par grappes à un seul degré étagé (ÉGSDÉ), comme moyen économique d’identifier n^* -sujets dans chacun des sous-domaines. Dans cet article-ci, nous étudions les propriétés statistiques de l’ÉGSDÉ pour l’estimation transversale du niveau d’un caractère dans la population. En particulier, la fiabilité d’estimations obtenues, à un coût donné, à l’aide de l’ÉGSDÉ est comparée à celle des estimations obtenues au même coût à l’aide de l’échantillonnage par grappes à un seul degré ordinaire (ÉGSDO). Nous avons été motivés par les problèmes rencontrés au cours de la conception statistique de l’Enquête de Shanghai sur la maladie d’Alzheimer et la démence (ESMAD), une étude épidémiologique de la prévalence et de l’incidence de la maladie d’Alzheimer et de la démence.

    Date de diffusion : 1992-06-15
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :