L’échantillonage en statistiques :
Il est absurde de passer par un pannel de personnes (110 000) alors que l’institution fourni les chiffres complets (en millions). Cela ajoute un énorme biais à la mesure (on change l’ordre de grandeur de l’échantillon par 1000).
Proposer un questionnaire pour une question binaire ?!? Imaginez la question : êtes vous, au chômage, beaucoup au chômage, un tout ptit peu au chômage, vous sentez vous au chômage, est ce que les autres vous définissent comme chômeur, pratiquez vous le chômage en groupe ? Ridicule.
Le résultat affiché est une hausse de 0.1%, soit +1/1000. Or, rien qu’avec l’approximation liée au pannel ’représentatif’, l’incertitude sur leur échantillonage (d’ordre 1000) est égale à la variation statistique observée (d’ordre 1000).
Qui plus est, pour prouver que cette variation soit statistiquement significative, l’institut à dût utiliser un test statistique de risque alpha très inférieur à sa variation statistique observable (0.1%). Or, les tables des valeurs critiques des tests stats sont souvent données pour un risque de 5, 1, 0.1, 0.01 % et rarement moins puisque pour un risque inférieur, il faudrait un dénombrement tellement précis de la population que cela n’aurait plus aucun intérêt de faire une approximation statistique.
Bref, en terme mathématiques, c’est aussi idiot que de prétendre distinguer des molécules avec un microscope optique, ou peser 0.1 g de beurre avec un balance précise au gramme. Puis, faire des tests statistiques hyper précis sur ces mesures foireuses pour tenter d’en expliquer la variabilité.