Friteuse a écrit : ↑07 sept. 2025, 16:55
Tiens, j'ai hésité à parler du modèle bayésien pour le fonctionnement du cerveau et de mes grosses réserves là-dessus (de même que sur pas mal de théories scientifico-métaphysiques qui n'ont pas plus de valeur que des réflexions de gens perchés au LSD) ce matin, là ton post m'y force Coach-Mic
Pour partir sur de bonnes bases, c'est déjà important d'expliquer ce que signifie "bayésien". C'est un mot qui vient de la
formule de Bayes, un résultat élémentaire de probabilités qui a d'assez fortes implications. En gros, le principe d'un calcul de probabilités, c'est de prendre un résultat d'une expérience et de lui assigner un nombre entre 0 et 1 (inclus) qui dit à quel point il est probable. Le résultat est plus communément appelé "évènement", par exemple si on a un sac opaque avec 10 boules indiscernables numérotées de 1 à 10 dans lequel une personne tire une et une seule boule, si on répète l'expérience une seule fois un évènement pourrait être "on tire la boule #4" (probabilité de 1/10), ou bien "on ne tire pas la boule #7" (probabilité de 9/10), ou encore "on tire un chiffre pair" (probabilité de 5/10)... Mais aussi "on tire une boule" (probabilité de 10/10 = 1) ou "on tire un maillot dédicacé de David Sauget" (probabilité de 0/10).
Si on répète l'expérience plusieurs fois, on peut faire des choses plus intéressantes. Par exemple si on tire une boule, puis qu'on la remet dans le sac, puis qu'on tire une nouvelle boule, quelle est la probabilité qu'on tire deux fois la boule #4 ? Comme les deux tirages sont indépendants, on peut décomposer l'événement "on tire deux fois la boule #4" en "on tire la boule #4 au premier tirage ET on tire la boule #4 au deuxième tirage". Chacun de ces évènements a une probabilité de 1/10, donc on multiplie et ça nous donne une probabilité de 1/10*1/10 = 1/100.
Et si on calcule la probabilité de ne tirer la boule #4 qu'au premier lancer ? Là, on décompose notre événement en "on tire la boule #4 au premier tirage ET on ne tire pas la boule #4 au deuxième tirage", les deux tirages sont toujours indépendants donc ça nous fait 1/10*9/10 = 9/100 de probabilité.
Notre "ET", en notation probabiliste, on l'appelle "inter" et on le note généralement avec un arceau qui pointe vers le haut. Comme j'ai la flemme de copier-coller le symbole plein de fois je vais utiliser le P majuscule du clavier cyrillique à la place : l'évènement "A П B" se lit comme "l'événement A se produit ET l'événement B se produit". Si les évenements A et B sont indépendants, alors on a le résultat bien pratique P(A П B) = P(A)*P(B) qu'on a utilisé plus haut.
Mais les évènements ne sont pas toujours indépendants. En reprenant notre énoncé du sac, supposons que l'on ne remet pas la boule que l'on a sorti du sac au premier tirage avant de retirer. Il y a donc 10 boules lors du premier tirage mais seulement 9 au second, ce qui suffit à affecter pas mal nos probabilités vu que les résultats possibles au second tirage dépendent de ceux obtenus au premier. Dans ce cas de figure, il est utile de faire appel à ce qu'on appelle des probabilités conditionnelles, que l'on note P(B|A) ce qui se lit "probabilité que l'événement B se réalise SACHANT QUE l'événement A s'est déjà réalisé". La notation est légèrement abusive car "B sachant A" n'est pas un évènement à proprement parler, mais peu importe, il faut voir ça comme un nouvel outil qui permet de simplifier des calculs.
On définit P(B|A) par la formule P(A П B)/P(A). Pour rappel, ça signifie qu'on divise la probabilité que A ET B se réalisent par la probabilité que seul A se réalise. Par définition, ce qu'on obtient sera bien un nombre entre 0 et 1 puisque le fait que A ET B se réalisent sera toujours plus contraignant que le fait de réaliser seulement A, c'est pour ça qu'on peut le considérer comme une probabilité. Promis, on arrive bientôt à la formule de Bayes, il nous manque juste une dernière étape qui est de remarquer que "A ET B" et "B ET A", c'est en fait la même chose. Ainsi P(B|A) = P(A П B)/P(A) = P(B П A)/P(A). En parallèle, par définition des probabilités conditionnelles P(A|B) = P(B П A)/P(B) (on a juste interverti les lettres A et B dans la première phrase du paragraphe) ce qu'on peut réécrire P(B П A) = P(A|B)*P(B).
Après un dernier remplacement dans l'expression de base,
P(B|A) = P(A|B)*P(B)/P(A), la voilà notre formule de Bayes. Ce qu'on peut en retirer d'utile, c'est avant tout que si une probabilité semble compliquée à évaluer de prime abord c'est qu'il existe peut-être une façon plus simple de l'évaluer en retournant le problème.
Exemple: si on te demande là comme ça "c'est quoi la probabilité d'être fan des Verts si on habite à Saint-Étienne", difficile de donner une réponse avisée. Mais après réflexion, on peut écrire cette demande comme un P(B|A) où A est l'événement "habiter à Saint-Étienne" et B est l'événement "être fan des Verts". Reprenons notre formule de Bayes:
-> P(A|B), c'est la probabilité d'habiter à Saint-Étienne si l'on est fan des Verts. Avec un sondage sur P² qui comme chacun sait est représentatif de la communauté des supporters de l'ASSE (

) on devrait s'en sortir pour obtenir une estimation pas trop mauvaise.
-> P(A) c'est la probabilité d'habiter à Saint-Étienne, il suffit de diviser la population de la ville par la population française (ou mondiale, mais française c'est plus simple) pour l'obtenir
-> P(B) c'est la probabilité d'être fan des Verts, une question simple à laquelle là aussi un sondage au niveau national pourrait permettre d'obtenir une réponse pas trop mauvaise
Si on fait nos multiplications et nos divisions, on aura de quoi donner une valeur chiffrée assez précise et relativement fiable à une question où l'on aurait pu répondre n'importe quoi sans faire ce cheminement.
La formule de Bayes est donc particulièrement utile dans plusieurs cas où il faut réévaluer ses certitudes, elle se prête très bien par exemple à la détection de faux positifs dans les essais cliniques (c'est l'un des exercices les plus bateau qu'on peut faire dessus). Que notre cerveau se repose sur elle inconsciemment pour calculer des probabilités, c'est tout à fait plausible et j'y connais rien en neurosciences donc impossible d'aller plus loin. Par contre, là où ça commence à me faire tiquer, c'est que des vulgarisateurs du YouTube français (Science4All notamment, qui faisait du contenu plutôt intéressant par ailleurs) ont commencé à pousser beaucoup trop loin le délire de la formule de Bayes à toutes les sauces. L'intention est louable, mais l'applicabilité nulle et même parfois dangereuse en ce qu'elle enrobe d'une aura "scientifique", donc a priori rigoureuse et indiscutable, des croyances comme les autres qui ont leurs contradictions et leurs angles morts.
Si vous voyez du vocabulaire scientifique dans une explication métaphysique, neuf fois sur dix c'est quelqu'un qui cherche à vous douiller. La science ne montrera jamais le chemin à suivre. Dans les catacombes de la vie, la science n'est pas la flèche rouge au plafond qui vous indique le chemin à suivre, seulement la lampe torche qui vous permet de voir la flèche. Pour connaître le chemin, c'est toujours sur des codes personnels, culturels, de valeurs que vous vous reposerez, jamais sur "la science". Quiconque prétend le contraire est un énorme charlatan à qui il ne faut pas donner l'heure.
En bref, même si je partage l'enthousiasme des potos qui ont contribué, je pense qu'il faut faire très gaffe à ne pas partir dans des délires pseudoscientifiques avec ce thread. La science ça se construit à pas de fourmi, en équipe, avec plein de fausses pistes et de contretemps, c'est une aventure humaine, bref c'est chiant et c'est justement parce que c'est chiant que c'est passionnant.