Bayesian Ninja

Coderikeinmal bemerkt: "Es gibt nie zu viele Kalman-Filter . " Das Gleiche gilt fĂŒr den Satz von Bayes, weil er einerseits so einfach ist, andererseits aber so schwer zu verstehen ist, wie tief er ist.



YouTube hat einen wunderbaren Student Dave- Kanal , aber das letzte Video wurde vor sechs Jahren gepostet. Der Kanal enthĂ€lt Lehrvideos, in denen der Autor komplexe Dinge in einer sehr einfachen Sprache erzĂ€hlt: Bayes-Theorem, Kalman-Filter usw. Student Dave ergĂ€nzt seine Geschichte mit einem Beispiel fĂŒr die Berechnung in Matlab.


Einmal hat mir seine Videolektion mit dem Titel „Iterative Bayes'sche Bewertung“ sehr geholfen (auf dem Kanal entspricht sie der Wiedergabeliste „Iterative Bayes'sche SchĂ€tzung: mit MATLAB“).) Ich wollte, dass sich alle mit Daves ErklĂ€rungen vertraut machen, aber leider wird das Projekt nicht unterstĂŒtzt. Dave selbst meldet sich nicht. Sie können dem Video keine Übersetzung hinzufĂŒgen, da der Autor sie selbst initiieren muss. Die Kontaktaufnahme mit youtube ergab kein Ergebnis, daher habe ich beschlossen, das Material in einem Artikel auf Russisch zu beschreiben und dort zu veröffentlichen, wo es am meisten geschĂ€tzt wird. Das Material wurde stark ĂŒberarbeitet und ergĂ€nzt, da es meine subjektive Wahrnehmung durchlief, so dass es unangemessen wĂ€re, es als Übersetzung zu verwenden. Aber ich habe das Salz der ErklĂ€rung von Dave genommen. Ich habe den Code in Python umgeschrieben, da ich selbst daran arbeite und ihn als guten Ersatz fĂŒr mathematische Pakete betrachte.


Wenn Sie das Thema des Bayes-Theorems besser verstehen möchten, sind Sie herzlich willkommen.


Formulierung des Problems


, “ ”. .



-, . , . , . . , . . - .


, , , .



- x. x=3. . .



( ) N=100() .


σy2=4.
, .



fposterior(x)=fprior(x)⋅f(x)∫fprior(x)⋅fmes(x)dx,


fposterior(x)— ;
fprior(x)— ;
fmes(x)— ( Lx(sample)).
. , ( , ):


fmes(x)=pdf(x=y,ÎŒ=x,σ=σ)=12πσe−(y−x)22σ2,


pdf— ;
Ό— ;
σ— ;
y— .
(N), , .


.



.
σ, 99,7 %.



- , .


. -.
(3,5). ( ) .

() , . .

:


fposterior(X)=fprior(X)⋅f(X)∫fprior(X)⋅fmes(X)dX,


X— (xy);
fposterior(X)— ;
fprior(X)— ;
fmes(X)— .
:


fmes(X)=1(2π)2detKe12(Y−X)TK−1(Y−X),


K— ;
Y— (xy).
, .

.



Somit ist ersichtlich, wie die Ergebnisse des Experiments die a priori-Verteilung beeinflussen. Wenn Sie die Messungen korrekt verwenden, können Sie eine gute Genauigkeit erzielen.
Aber ist es nicht einfacher, nur den Durchschnitt aller Messungen zu ermitteln und so den Standort der Wachtel zu beurteilen? Na sicher. Dieses Beispiel ist nur ein gutes Beispiel fĂŒr den Bayes-Satz fĂŒr kontinuierliche Zufallsvariablen. Der Zweck des Artikels ist es, die Theorie zu regeln.


Besuchen Sie den Dave Channel in diesen Wochen der Selbstisolation. Gut zu allen.


All Articles