Histoire et contexte

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (1)

Tout (1) ((1 résultat))

  • Articles et rapports : 12-001-X201700254888
    Description :

    L’exposé retrace l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années. Dans un article fondamental publié en 1934, Neyman jetait les bases théoriques de l’approche axée sur l’échantillonnage probabiliste pour l’inférence à partir d’échantillons d’enquête. Les traités d’échantillonnage classiques publiés par Cochran, Deming, Hansen, Hurwitz et Madow, Sukhatme, ainsi que Yates au début des années 1950 étendaient et étoffaient la théorie de l’échantillonnage probabiliste, en mettant l’accent sur l’absence de biais, les caractéristiques exemptes de modèle, ainsi que les plans de sondage qui minimisent la variance selon un coût fixe. De 1960 à 1970, l’attention s’est portée sur les fondements théoriques de l’inférence à partir de données d’enquêtes, contexte dans lequel l’approche dépendante d’un modèle a suscité d’importantes discussions. L’apparition de logiciels statistiques d’usage général a entraîné l’utilisation de ces derniers avec des données d’enquêtes, d’où la conception de méthodes spécialement applicables aux données d’enquêtes complexes. Parallèlement, des méthodes de pondération telles que l’estimation par la régression et le calage devenaient réalisables et la convergence par rapport au plan de sondage a remplacé la contrainte d’absence de biais comme critère pour les estimateurs classiques. Un peu plus tard, les méthodes de rééchantillonnage gourmandes en ressources informatiques sont également devenues applicables à des échantillons d’enquêtes à grande échelle. L’augmentation de la puissance informatique a permis des imputations plus avancées des données manquantes, l’utilisation d’une plus grande quantité de données auxiliaires, le traitement des erreurs de mesure dans l’estimation, et l’application de procédures d’estimation plus complexes. Une utilisation marquante de modèles a eu lieu dans le domaine en expansion de l’estimation sur petits domaines. Les orientations futures de la recherche et des méthodes seront influencées par les budgets, les taux de réponse, le degré d’actualité des données, les outils améliorés de collecte des données et l’existence de données auxiliaires, dont une partie proviendra des « mégadonnées ». L’évolution des comportements culturels et de l’environnement physico-technique aura une incidence sur la façon de réaliser les enquêtes.

    Date de diffusion : 2017-12-21
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (1)

Analyses (1) ((1 résultat))

  • Articles et rapports : 12-001-X201700254888
    Description :

    L’exposé retrace l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années. Dans un article fondamental publié en 1934, Neyman jetait les bases théoriques de l’approche axée sur l’échantillonnage probabiliste pour l’inférence à partir d’échantillons d’enquête. Les traités d’échantillonnage classiques publiés par Cochran, Deming, Hansen, Hurwitz et Madow, Sukhatme, ainsi que Yates au début des années 1950 étendaient et étoffaient la théorie de l’échantillonnage probabiliste, en mettant l’accent sur l’absence de biais, les caractéristiques exemptes de modèle, ainsi que les plans de sondage qui minimisent la variance selon un coût fixe. De 1960 à 1970, l’attention s’est portée sur les fondements théoriques de l’inférence à partir de données d’enquêtes, contexte dans lequel l’approche dépendante d’un modèle a suscité d’importantes discussions. L’apparition de logiciels statistiques d’usage général a entraîné l’utilisation de ces derniers avec des données d’enquêtes, d’où la conception de méthodes spécialement applicables aux données d’enquêtes complexes. Parallèlement, des méthodes de pondération telles que l’estimation par la régression et le calage devenaient réalisables et la convergence par rapport au plan de sondage a remplacé la contrainte d’absence de biais comme critère pour les estimateurs classiques. Un peu plus tard, les méthodes de rééchantillonnage gourmandes en ressources informatiques sont également devenues applicables à des échantillons d’enquêtes à grande échelle. L’augmentation de la puissance informatique a permis des imputations plus avancées des données manquantes, l’utilisation d’une plus grande quantité de données auxiliaires, le traitement des erreurs de mesure dans l’estimation, et l’application de procédures d’estimation plus complexes. Une utilisation marquante de modèles a eu lieu dans le domaine en expansion de l’estimation sur petits domaines. Les orientations futures de la recherche et des méthodes seront influencées par les budgets, les taux de réponse, le degré d’actualité des données, les outils améliorés de collecte des données et l’existence de données auxiliaires, dont une partie proviendra des « mégadonnées ». L’évolution des comportements culturels et de l’environnement physico-technique aura une incidence sur la façon de réaliser les enquêtes.

    Date de diffusion : 2017-12-21
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :