Ma Photo

En exergue :

  • Frank Ramsey, "Truth and Probability" (1926)
    The highest ideal would be always to have a true opinion and be certain of it; but this ideal is more suited to God than to man.
  • Jules Bertaut, "1848 et la Seconde République" (1937)
    L'enthousiasme est pour rien chez nous : aussi les Français, peuple avare par excellence, le répandent-ils avec une générosité qui n'a d''egale que leur versatilité.
  • Turgot, lettre à Du Pont (1773)
    C’est au public lisant et réfléchissant qu’il faut parler, c’est à lui qu’il faut plaire, lui et lui seul qu’il faut persuader ; toutes les flagorneries aux gens en place, tous les petits détours dont en s’enveloppe pour ne pas les choquer sont une perte de temps écartant du vrai but et ne réussissant même pas à faire sur eux l’impression qu’on s’est proposée.

Recherche Google


Inscrivez-vous à ma newsletter

Powered by
FeedBurner

Blogs recommandés

Blog powered by Typepad

Merci à StatCounter


« Les gars et les filles | Accueil | Airbus et la démocratie de connivence »

Commentaires

Antoine

"A l'évidence, plus je tire de six et moins j'aurai confiance dans l'hypothèse que le dé est pipé"

Non-pipé, plutôt, non ?

all

Je pense qu'on a toujours intérêt à tenir compte des informations précédemment obtenues pour faire évoluer la probabilité d'un évènement.
En la matière il me semble que vous devriez parler d'a posteriori au lieu d'a priori, puisque l'information est obtenue et que les déductions sont à venir.

- J'ai deux enfants dont l'un est un garçon, quelle est la probabilité pour que le troisième soit une fille?
Je fais 3 ensembles équiprobables :
*fille+fille
*fille+garçon
*garçon+garçon
L'information "l'un est un garçon" me fait supprimer les deux derniers ensembles, résultat 1/3

... Et alors ? Tout dépend de la valeur que vous attachez à l'information précédemment obtenue. Dans la théorie de Shannon et Weaver "l’information est fonction croissante de la réduction d’incertitude qu’elle apporte."

L'information "Il est très possible que le dé appartienne à la personne qui vient de parier avec moi" a plus de valeur à mes yeux que "un dé pipé donne un six une fois sur trois".

Sans vouloir verser dans des mathématiques de café des sports

Bien à vous

Bernard Salanie

Merci, Antoine, je corrige.

Elessar

Très bon article amha. J'ai beaucoup aimé l'explication du test de Neyman-Pearson. Ca montre une fois de plus que pour bien expliquer une théorie à un niveau élémentaire, il faut *vraiment* la maitriser.

Concernant l'approche Bayesienne, amha vous passez un peu sous silence son danger. Elle est superficiellement séduisante (on a l'impression d'exploiter "toute" l'information, en tout cas bien plus qu'avec les autres méthodes) mais il faut se méfier comme de la peste des "priors". D'où viennent-ils ? Sont-ils "objectifs" ? etc. Le prior dépend des a priori de l'économétricien et même un prior Laplacien n'a rien de "neutre".

Ce n'est pas seulement un pb de "mains malhonnêtes". Deux économétriciens de sensibilités politiques différentes peuvent avoir des priors différents, et donc tirer des conclusions différentes d'un même data set. Pour répliquer les résultats d'un autre, il faudrait donc que j'accepte ses priors ? Et s'ils me semblent idiot, on fait quoi ? Un test sur les priors ?

De plus, un Bayesien pur et dur ne verrait pas d'objection à ce que deux économétriciens viennent à deux résultats différents en travaillant sur un même data set, mais ça aurait un effet très délétère sur la crédibilité du discours économique dans l'opinion politique. Immanquablement, les subtilités Bayesiennes seront perdues et on en viendra à la simplification "tout résultat empirique dépend des opinions politiques de l'auteur, donc je suis en droit de rejeter tout résultat qui contredit mes propres convictions", version débile du "le politique doit primer sur l'économique".

Avec une méthode classique je perds peut-être un peu d' "information", mais ce n'est pas de l'information "neutre" que je perds, c'est la partie de l'information qui est la plus controversée. En la rejetant, j'ai moins à dire sur les données, mais ce que je dirai sera indépendant de mes a priori et donc bien plus convaincant.

On la fait quand, cette guerre de religion :-) ?

LSR

jck

"Deux économétriciens de sensibilités politiques différentes peuvent avoir des priors différents, et donc tirer des conclusions différentes d'un même data set."
Sauf qu'on ne tire pas des conclusions des "priors" ,mais de ce qui vient apres.Donc si les observations a venir sont les memes pour les deux econometriciens,les conclusions convergeront meme si les "priors" sont differents.

Elessar

"les conclusions convergeront meme si les "priors" sont differents"

Oui effectivement, avec assez de données (et si les priors ne sont pas complètement tordus au départ, mais c'est une question annexe). Mais quand on a assez de données pour éliminer l'effet des priors, pourquoi utiliser une méthode Bayesienne ? De plus, ca ne résout pas la question de ce qu'est un "bon" prior pour autant.

Mais quand on n'a pas assez de données (séries temporelles par exemple) et que le prior initial peut avoir une influence sur le résultat, on fait quoi ?

LSR

jck

"Mais quand on a assez de données pour éliminer l'effet des priors, pourquoi utiliser une méthode Bayesienne ?"
Pour eviter le probleme dit "sophisme du procureur",essentiellement les tests de significance ont des variantes de ce sophisme.

Fr.

Petit hors-sujet : ne ratez pas la page 22 du Monde sur le pouvoir d'achat et ses fluctuations "ressenties" !

PierreD

Ahah, le vieux troll. A moi:

"ça aurait un effet très délétère sur la crédibilité[...]"
En dehors du débat bayésien/classique, pensez vous que l'on doive sacrifier la vérité et/ou la rigueur scientifique d'un métier pour en améliorer sa crédibilité? Par exemple, les scientifiques savent que leurs théories ne sont que des modèles, falsifiables. Le pb est que le le créationniste moyen va utiliser cette non-certitude pour justifier ses élucubrations. Mais faut il pour autant que les scientifiques mentent et affirment que la science est pourvoiyeuse d absolues vérités? non, il faut rester honnête. Et de la même manière, si on pense que le bayésien est mieux aux prix d'un perte d'objectivité, il faut le dire même si ca génère des risques de dérapages. C'est mon avis, mais je suis ptt trop fleur bleue. D'ailleurs savez vous que la Federal Drug Administration utilise de plus en plus de méthodes bayesiennes?

Maintenant en ce qui concerne le fond, moi je suis bayésien alors forcément je vais donner qq arguments en sa faveur:
- les 2 théories ne donnent pas toujours les même resultats qd les donnees deviennent infinies.
- la différence fondamentale est l'acceptation explicite de la subjectivite dans le bayesien.
- le fréquencisme est tout aussi subjectif mais il tente de le cacher. Il y a de l arbitraire dans les procedures de test, les choix d estimateurs, la notion de p-valeur, le choix du alpha, le choix des hypo alternatives...
- le frequencisme est inconsistant et peut conduire a des paradoxes. Jamais aucun paradoxe n a ete trouve dans la theorie bayesienne (mais si vous en avez, je suis preneur...)
- le fréquencisme considere que les donnees sont aleatoires et que les hypotheses ne le sont pas. Il doit donc integrer sur la distribution des donnees. Ses résultats prennent donc en compte des données *non obsevées* !!! Moi j aime pas trop. Et c'est la source des paradoxes, selon la distrib que vous supposerez pour ces donnees virtuelles, vous pourrez avoir des reponses differentes...
- les resultats des test/IdC frequenciste sont tres souvent mal interprétes. Ce dont le scientifique a vraiment besoin est un intervalle de croyance bayesien.
- pour chaque nouveau pb, le frequenciste doit trouver une nouvelle fonction pivotale et un nouveau test. Ce n'est pas une méthode générale et automatique.
- le bayésien peut traiter des problemes intraitables en fréquenciste car il autorise de mettre des distribution de probabilité sur des paramètres (c est un non sens en frequenciste)
- ceci permet de creer des modeles hierarchiques complexes, et de les gerer avec le meme formalisme unifié.

Evidement tout n est pas rose et les pb sont:
- temps de calcul prohibitifs. D'on nécessité de méthodes approchées (y en a qui marchent assez bien, mais pas toujours)
- pb de la spécification des a priori. Ce n'est que très rarement facile et c'est aussi source d'approximation (difficulté de traduire les connaissance d'un expert en distribution)
- subjectivité: pour moi ce n'est pas un pb, mais une qualité, une preuve de rigueur. Comme on a abandonné la notion de déterminisme en physique depuis pres de 100 ans, comme on a abandonné l'espoir de définir un objectivisme absolu en philosophie depuis plus longtemps encore, il faudra bien que les statisticiens abandonnent un jour cette croyance en l'existence d'une parfaite neutralité.

Bon tout ca ce n'est que mon opinion, la communauté est encore bien divisée et c'est pas moi qui vais changer tout ca. Mais les choses bougent...

Allez pour le plaisir qq citations:

"In a reasonable world, there is room for both approaches, provided people are clear about what they are calculating. The problems occur most often when people try to do things using a frequentist approach to data analysis which simply isn't appropriate."
[Kevin Moore]

``Here is a sample conversation between two Everettistas, who have fallen from a plane and are hurtling towards the ground without parachutes:
Mike : What do tou think our chances of survival are?
Ron : Don't worry, they're really good. In the vast majority of possible worlds, we didn't even take this plane trip."
[unknown]

"We [statisticians] will all be Bayesians in 2020, and then we can be a united profession."
[D.V. Lindley]

"The [statistical] test provides neither the necessary nor the sufficient scope or type of knowledge that basic scientific social research requires."
[Morrison \& Henkel, 1969]

"Null-hypothesis tests are not completely stupid, but Bayesian statistics are better."
[Rindskopf, 1998]

"Les intervalles de confiance se justifient (comme le test) par une conception fréquentiste qui traite les données comme aléatoires, même après les avoir recueillies. Cela est si étrange que l'interprétation fréquentiste "correcte" des intervalles de confiance n'a pas de sens pour la plupart des utilisateurs. Ironiquement, c'est l'interprétation bayésienne des intervalles de confiance en termes d'"un intervalle fixé ayant 95\% de chances d'inclure la vraie valeur du paramètre" qui les rend intelligibles."
[unknown]

"Classical statistics was invented to make statistical inference 'objective.' In fact, classical statistics is no more objective than Bayesian statistics, but by hiding its subjectivity it gives the illusion of objectivity."
[Jefferys, 1992]

"There are two ways of solving a data analysis problem: the Bayesian way and the wrong way."
[Bishop, C]

"There are many excuses for not using a Bayesian approach. The only true one is incompetence."
[Skilling]

Cordialement
Pierre

L'utilisation des commentaires est désactivée pour cette note.